A YouTube az AI-alapú szinkronizálással új szintre emelte az automatikus szinkronizálási funkcióját, és ennek lényege nagyjából annyi, hogy – ahol adott –, konkrétan szinkront készít külföldi tartalmakhoz. Például meg akarsz nézni egy eredetileg angol nyelvű videót, viszont a YouTube felkínálja hozzá az AI-alapú magyar szinkront. Akkor ezzel értelemszerűen nézheted magyarul is, csak épp valami fura lesz: a szájmozgás. Mivel csupán a szinkron változik, a szájmozgás ezeknél a videóknál idegennek hathat. Most azonban kiderült, hogy a YouTube állítólag egy olyan rendszert tesztel, amely mesterséges intelligenciát használ a tartalomgyártók szájmozgásának szinkronizálására a lefordított hangot figyelve, így a szinkronizálás természetesebbnek fog hatni a nézők számára. Az AI-szinkronizálás egyébként egyre elterjedtebb és így néz ki:

A Digital Trendsnek adott interjúban Buddhika Kottahachchi, a YouTube automatikus szinkronizálásért felelős termékvezetője elmagyarázta, hogy a rendszer úgy működik, hogy „[módosítja] a képernyőn látható pixeleket, hogy azok illeszkedjenek a lefordított beszédhez”, vagyis lényegében picit olyasmi ez, mint a DLSS AI-felskálázás a játékoknál. Kottahachchi megerősítette, hogy a csapat azon dolgozik, hogy a funkciót több nyelvre kiterjessze, végül pedig a YouTube automatikus szinkronizálása által támogatott több mint 20 választható nyelv formájában elérhetővé akarják tenni. Kérdéses egyelőre, hogy mikor élesedhet a divatos szóval élve lip-sync, de az biztos, hogy ez csak egy újabb állomás lesz a YouTube AI-alapú tartalmainak bővítésében.

Borítókép forrása: Dmitriy Hay (depositphotos)