OpenAI ustupuje Hollywoodu: po kauze s deepfake videi posílí ochranu Sora

Nová videoaplikace Sora 2 vyvolala skandál poté, co umožnila tvorbu falešných videí známých osobností. Společnost OpenAI oznámila, že v reakci na kritiku posílí ochranné mechanismy v aplikaci.

Reakce a kontext

Krok následuje po ostré kritice a tlaku ze strany hollywoodských tvůrců a zástupců, kteří upozornili na rizika neautorizovaného vytváření deepfake videí celebrit. OpenAI uvedla, že upraví bezpečnostní postupy a kontrolní mechanismy s cílem snížit možnost zneužití technologie.

Konkrétní podoba nových opatření zatím nebyla podrobně specifikována; společnost ale signalizovala, že ochrana identity a prevence nezákonného používání zůstanou prioritou při dalším vývoji Sora 2.

Nvidia míří k roli Androidu pro robotiku

Na veletrhu CES 2026 v Las Vegas Nvidia představila komplexní...

Přehled nejlepších AI diktovacích nástrojů pro rok 2026

Umělá inteligence zásadně změnila podobu diktovacích aplikací. V roce 2026...

Rok 2026: rozhodující střet umělé inteligence a lidské práce

Investoři varují, že v roce 2026 dojde k razantnímu přeskupení...

Co vás nebaví, poběží samo.

Co vás brzdí, to jde automatizovat. Neztrácejte svůj čas a začněte využívat potenciál AI naplno.

Poznámky a lístečky