Menu

Detekci falešných AI videí zajistí AI: Do boje se zapojily společnosti Microsoft, McAfee i Honor

Detekci falešných AI videí zajistí AI: Do boje se zapojily společnosti Microsoft, McAfee i Honor
AI Deepfake detekce společnosti Honor bude k dispozici od dubna, Foto: Honor, Ilustrace: Arecenze

Online podvodníci začínají čím dál častěji zneužívat umělou inteligenci a vytvářet s její pomocí takzvaná deepfake videa. Ta jsou k nerozeznání od skutečných, mnohdy zneužívají tváře a hlasy známých osobností a jejich cíl je dvojí – dostat se do vašeho internetového bankovnictví nebo k vašim osobním údajům.

Naletět je přitom snadné, protože podvrhy jsou čím dál dokonalejší. Do boje s deepfakes se tak vydávají přední technologické firmy v čele s Intelem, Microsoftem nebo Adobe. A nově se k nim se svým jedinečným detektorem přidá i HONOR.

Video: ‘Deep Fakes’ Are Becoming More Realistic Thanks To New Technology, TODAY, YouTube

Detekce falešných videí pomocí AI

Společnost HONOR je známá především díky svým mobilním telefonům. Naposledy zaujala například svým vlajkovým modelem HONOR Magic7 Pro, ale nyní míří i jiným směrem. Řadí se po bok firem bojujících proti deepfakes. Už v roce 2024 představila společnost na technologickém veletrhu IFA jedinečný AI detektor, který má za cíl odhalovat podvodná videa v reálném čase. A dostupný by měl být od letošního dubna.

Jeho algoritmus se zaměřuje na detaily videí tvořených AI, které byste pouhým okem ani nepostřehli. Může jít o nepřirozený oční kontakt, nereálné osvětlení, podivné detaily na okrajích videa či nesoulad v symetrii obličejů. Detektor ale zaznamená třeba i špatnou syntézu pixelů nebo kontinuitu přehrávání vytvořenou typicky umělou inteligencí a nikoliv člověkem.

Výhodou této nové funkce bude, že uživatele dokáže v reálném čase upozornit, že sleduje podvržené video. Člověk tak bude mít šanci včas zareagovat a nenaletí podvodníkovi.

Video: China’s Honor develops the on-device technology that can detect AI video deepfakes, YouTube

Společný boj proti deepfakes

V online světě už působí jedna velká organizace, která se snaží potírat tato videa vytvářená umělou inteligencí. Nese název Content Provenance and Authenticity (C2PA) a stojí za ní společnosti jako Adobe, Arm, Intel, Microsoft či Truepic. Ty se společně snaží vyvíjet nové technické standardy, které by sloužily pro snazší a jednoznačnější certifikaci zdroje a historie videí. Microsoft se zároveň snaží zavádět preventivní opatření proti zneužití svého chatbota Copilot.

Pokud by se vykutálený podvodník rozhodl k tvorbě deepfake zneužít právě Copilota, výsledkem budou rozmazané obličeje osob. Další pomoc, tentokrát ze strany Truepic, přichází prostřednictvím mobilní platformy na čipsetu Snapdragon 8 Gen 3, který dokáže prověřit původní údaje a zašifrovat je. To může být dalším důležitým krokem v boji proti deepfakes. Tímto procesorem disponuje například pokročilý Samsung Galaxy S24 Ultra.

A v neposlední řadě je tu společnost McAfee, která vyvinula model umělé inteligence využívající procesor Qualcomm Snapdragon X Elite. Díky němu je možné podvodná videa rozpoznat i lokálně a data uživatelů by se už neměla dostávat nikam dál, tedy ani do cloudu.

Video: Deepfake Example. Original/Deepfake Elon Musk, LipSynthesis, YouTube

Nákladný boj s hackery

Veškerá tato snaha není zadarmo a ani nikterak levná. Podle předpokladů celosvětové náklady na detekci deepfake dosáhnou v roce 2026 až 15,7 miliardy dolarů (oproti roku 2023 tak půjde o 42% nárůst).

Útoků v posledních měsících přitom rapidně přibývá. Jen v roce 2024 k nim podle dat společnosti Entrust Cybersecurity docházelov průměru každých 5 minut. Meziročně jde o 244% nárůst. Z výzkumu navíc plyne, že od konce roku 2023 do konce roku 2024 se s podobným pokusem o útok setkalo 49 % z oslovených firem. A 61 % z nich si s nimi neumí dost dobře poradit a nemá nastaveny žádné příslušné bezpečnostní mechanismy.

Pokud máte pocit, že deepfake video vytvořené AI bezpečně poznáte, vězte, že 59 % respondentů přiznalo, že si tím nejsou jisti. Možná je proto na čase, aby všechna AI videa musela být už při tvorbě viditelně označena, jako generovaný obsah.

Zdroje: Entrust Cybersecurity, Honor, C2PA, Truepic, Microsoft

Rubriky

#arecenze

Pro nejnovější informace sledujte také naše sociální sítě

Mohlo by vás zajímat

Diskuze, komentáře a vaše zkušenosti

Podělte se o svůj názor, dotaz a poraďte ostatním v moderované diskuzi. Naši redaktoři se také zapojují, ale odpovídají dle aktuální vytíženosti a časových možností. Pokud potřebujete naši odpověď, využijte spíše email.

Zapojte se do diskuze

Odeslat

Zveřejňujeme každý slušný a přínosný komentář.