Normalmente la trasmissione dati di un'interfaccia hdmi è 1920x1080p 24fps 7.1 audio.

Tutti i bluray sono a 24fps e nessuno dice che scattano... a noi sul pc sembra che scatti sotto i 30 fps perchè i nostri monitor sono normalmente a 60hz, quindi a 60hz siamo sincronizzati 1:1, a 30 fps siamo sincronizzati 1:2, e l'occhio non nota la differenza tra i frame... a 24 fps siamo sincronizzati con divisori strani e l'occhio vede i frame morti, quei frame che servono per riportare un segnale a 24fps a 60fps del monitor.

Se avessimo tv o monitor a 200hz o a 600hz i bluray li vedremmo sempre a 24 fps (ovviamente lo scarto come divisore è sempre + piccolo all'aumentare degli hz della tv, quindi si vedrebbe comunque con meno frame morti, o meglio, con frame morti quasi sincronizzati con la trasmissione video, e l'effetto sfarfallio sarebbe minore).

Mi chiedevo solo perchè le console usassero i 30fps se tutte le trasmissioni full hd sono state standardizzate a 24.