Co kdyby jste viděli svého přítele, jak říká něco, co nikdy neřekl? Nebo vašeho politika, jak přiznává korupci, i když to je úplně lež? To je deepfake, technologie umělé inteligence, která vytváří realistická, ale úplně falešná videa nebo audia. Also known as hluboký podvod, it umožňuje lidem nahradit obličeje, hlasy a pohyby v reálném obsahu.
Deepfake není jen sci-fi. Už se používá k podvádění, například při krádežích identit nebo výměně hlasu během telefonátu. Někdo může vytvořit video, kde váš šéf přikazuje převod peněz – a vy to věříte, protože to vypadá skutečně. Nebo to může být video, kde vaše známá říká něco urážlivého – a celý váš kruh si to věří. Umělá inteligence, která se učí z tisíců videí, teď dokáže reprodukovat každý výraz, každý pohyb hlavy, každý tón hlasu. A to všechno bez toho, aby někdo musel být na místě. Stačí pár snímků nebo sekunda nahrávky.
Největší nebezpečí? Lidé si už nevěří. Když každé video může být podvod, začnete věřit všemu – i v tom, co je pravda. Politici to využívají k ničení soupeřů. Podnikatelé k podvádění investorů. Dokonce i soukromé osoby se stávají oběťmi – třeba kvůli falešným pornografickým videím. Manipulace, která dříve vyžadovala týmy novinářů a kameramanů, teď stojí pár dolarů a pár hodin. A to všechno probíhá v tichosti – bez toho, aby to někdo viděl.
V českém prostředí to už začíná být problém. Vlády, média, ale i běžní lidé se s tím začínají potýkat. Zprávy o falešných záznamech politiků, o podvodných hlasováních, o výměnách hlasů při bankovních transakcích – všechno to je reálné. A nejhorší je, že technologie rychleji roste než naše schopnost ji rozpoznat.
V tomto sbírce najdete příběhy, které ukazují, jak deepfake ovlivňuje fotbalové kluby, politické kariéry, finanční trhy a dokonce i osobní vztahy. Některé zprávy jsou o tom, jak někdo byl zničen jen kvůli jednomu videu. Jiné ukazují, jak se lidé učí detekovat podvody. A některé se ptají: jestli vůbec ještě něco můžeme věřit.
Sora od OpenAI umožňuje vytvářet realistická videa z textu a je od října 2024 dostupná i v ČR. Experti varují před rizikem deepfake a dezinformací, zatímco společnost připravuje novou verzi do roku 2025.
Číst více