Pornó revolúció a Deepface segítségével
2019. február 05. írta: Geek Peet

Pornó revolúció a Deepface segítségével

Ha valaki elgondolkodott már rajta, hogy miért olyan rohadt ügyes a Facebook az arcfelismerésben, de fogalma sem volt, hogyan csinálja, akkor most megpróbálom röviden elmagyarázni a saját tanulmányuk és egyéb netes források alapján.

adult-anger-angry-356147.jpg

Kép forrása: pexels

Szóval az egész Deepface a mesterséges intelligenciával kezdődik, amiről tudnunk kell, hogy egy követő és tanuló mechanizmusnak köszönhetően növeli folyamatosan a tudását a világról. Ennek alapja egy úgynevezett mesterséges neuronháló, amiben nevéhez híven mesterséges neuronok kommunikálnak egymással különböző függvényeken keresztül. Több rétegük is lehet, sőt, háromnál általában csak több lehet nekik – innen a „Deep”=mély elnevezés is – és képesek bármilyen algoritmust megoldani, amit számítógéppel meg lehet oldani vagy le lehet futtatni.

Ezek a mesterséges neuronhálók igazából egy biológiai minta alapján működnek. A modell arra a megfigyelésre alapul, hogy a tanulást képesek voltak az ideghálózaton végbement ideiglenes vagy végleges változásokként leírni. Tehát mondjuk ha egy kisgyerek megégeti a kezét, akkor a legtöbb esetben valahol az ideghálóján véglegesen megváltozik valami, és legközelebb tudni fogja, hogy nem nyúl a forró kályhához. Viszont emellett párhuzamosan azt is elmondhatjuk, hogy csak abban az esetben következik be tényleges módosulás, ha átlép egy bizonyos küszöböt. Tehát ha nem elég forró az a kályha, akkor nem történik semmi (lényeges), legközelebb is teljes lelki nyugalommal fogja körbetaperolni.

A folyamat elég bonyolult, de nekünk igazából a végeredmény a lényeg: a fentiek segítségével sikerült egy olyan mély tanulási folyamatot kifejleszteniük, aminek az architektúrája összetett, neuronrétegek sorát és/vagy változatos elágazásokat tartalmaz. Minél mélyebb egy neurális hálózat, annál magasabb az absztrakciós képessége, tehát még összetettebb feladatokat képes ellátni.

Tanulási folyamat: a bemenet

A semmiből az AI sem tud tanulni, tehát adatokra, inputra van szüksége az első körben. Ebben a fázisban a kutatók rengeteg különböző fényképpel árasztották el testrészekről, ruhákról, frizurákról meg mindenről, ami egy ember felismerésében szerepet játszhat.

A modern arcfelismerésnek négy lépését különböztetik el, melyek sorrendben: érzékelés, igazítás, ábrázolás, osztályozás. Ezen technikák alkalmazása után a képek még átmennek egy 3D átalakításon meg még egy csomó folyamaton, hogy a végeredmény még pontosabb legyen.

Maga a végeredmény: az output

A folyamat eredménye egy olyan arcreprezentáció, amely egy 9 rétegű mesterséges neuronhálóból eredeztethető. Ennek a hálónak 120 millió változója van, ami lényegében emberi arcképek gyűjteménye. A további tanuláshoz persze még több adatra van szükség, amihez a Facebooknak nem kellett messzire menni, hisz ott volt az a masszív mennyiségű képanyag, amit a felhasználók töltöttek fel. 4000 felhasználó több mint 4 millió arcképét használták fel a folyamat során, melynek következtében a gépi arcfelismerés elérte az emberi szintet, magyarul olyan ügyesen ismeri fel az egyes arcokat, mint te vagy én.

Ez annyit jelent, hogy a Facebook lényegében képes felmérni, hogy két különböző képen szereplő személy megegyezik-e, és teszi ezt elég sikeresen. Csak hogy számokban is megmutassam: az algoritmus sikeressége 97,47%, míg egy emberi szem esetén ez 97,65%.

Persze a folyamat nagyban különbözik attól, ahogy a mi agyunk működik. Ha feltöltesz két képet ugyanarról az emberről, te tisztában vagy vele, hogy az ugyanaz a személy, de a mesterséges intelligencia nincs ezzel tisztában, neki le kell tesztelnie az összes tárolt képet és egyezést kell keresnie. Amint ez megvan, mindenki boldog, robot és ember egyaránt, és már fel is ajánlja a kép feltöltésekor, hogy valóban Kis Pista pózol-e melletted a kedvenc krimódban. Amennyiben nincs egyezés, úgy végigveszi az arc attribútumait és egyesével megvizsgálja. Tehát megnézi például a szem méretét, eldönti, hogy kicsi vagy nagy. Ha megvan, hogy nagy, akkor utána eldönti a színét. Ha látja, hogy barna, akkor utána már csak a nagy barna szemeket vizsgálja, megnézi a szem távolságát, a szemöldököt, majd rátér az arc többi részére, orr, száj, arcvonal és így tovább. Az emberi arcon 68 egyedi pontot keres és vizsgál meg, s ez alapján dönti el, hogy ismeri-e a képen látható személyt.

Jó az arcfelismerés vagy rossz?

Azt hiszem, biztonsággal kijelenthető, hogy az internetes és főleg a közösségi média feltörésével jellemezett éra legnagyobb kérdése a személyes adatok védelme. Már a Deep Face bemutatásakor várható volt, hogy nem mindenki fogja jóhiszeműen és jó szándékkal használni. Az arcfelismerés kétségkívül hasznos lehet mondjuk a rendőrség számára (a briteknél már ki is próbálták tavaly karácsonykor), forradalmi újításoknak adhat teret a látássérültek segítésében, hasznos lehet a filmeseknek vagy kutatások során, vagy épp segíthet a robotoknak felismerni a személyeket, akikkel együtt dolgoznak.

Az etikai kérdéseknek is köszönhető, hogy a Facebook nem rendezett túl nagy ünnepélyt a technológia bemutatásakor, mert már akkor több oldalról támadták őket. Egyrészt sokakban felmerült a kérdés, hogy mégis miért szeretné a Facebook felismerni a saját felhasználóit. Így a cég meg is próbálta úgy prezentálni az egészet, mint egy akadémiai újítást, egy projektet, ami érdekes és semmi több. Utólag azonban látszik, hogy a tudomány önmagában sohasem jó vagy rossz, ez mindig azon áll, hogy mire használják.

Deepface-ből Deepfake

A Deepfake kifejezés azokra a mesterséges intelligencia bevonásával készített hamisító technológiákra utal, amivel például ez a videó is készült:

Jennifer Buscemi... creepy

Az ijesztő talán nem is a legkifejezőbb jelző erre a torz alakra, amit Steve Buscemi arcából és Jennifer Lawrence testéből raktak össze. De igazából nem is ezek a videók a legijesztőbbek, amikben teljesen egyértelmű, hogy videó-manipulációról van szó, hanem inkább azok, amiknél nem tudjuk eldönteni, hogy amit látunk, az igaz-e.

A technológia a mezei felhasználók számára is elérhető, és nem, még véletlenül sem szeretném sem belinkelni sem terjeszteni, így is túl könnyű már használni és visszaélni vele, de ha továbbgondoljuk az egészet, rettentően ijesztő jövőkép tárul elénk. Amerikai törvényhozók és politikusok is felfedezték a technológia mögött rejlő veszélyeket, s félve a 2020-as választásokra gyakorolt hatásukra, máris sürgetik azon törvények meghozását, amik korlátozzák és esetenként büntetik az ilyen visszaéléseket.

Jelenleg egyébként a pornóipar az, amiben a leginkább elterjedt. A nézettségi adatok alapján létező igényeket elégít ki (bocs, muszáj volt) ez a fajta tartalomgyártás, ugyanis hihetetlen mennyiségű néző ül le egy-egy olyan video elé, amiben híres színésznők arcát montázsolják különböző 18+-os szexjelenetekben szereplő hölgyek testére. Persze nem csak híres emberekkel, hanem hétköznapi nők képeivel is visszaélnek, és az úgynevezett revenge porn, vagyis magyarul bosszú pornó műfaja új virágkorát éli a deepfakes technológiának köszönhetően. A legmegdöbbentőbb, hogy a videók kifejezetten jó minőségűek, tehát nagyon nehéz különbséget tenni a valóság és a manipulált képek között. Itt van rögtön egy példa erre:

 

Szerintem első ránézésre senki nem mondja meg, hogy nem Barack Obama beszél. De kering a neten video Putyinról és sok más emberről is. Lassan tehát eljutunk oda, hogy már annak sem hihetünk, amit látunk, és ismerve az emberek kóros vonzódását az összeesküvés-elméletekhez, illetve azt a sebességet, amivel az álhírek képesek terjedni, simán eljöhet az az idő, amikor már szinte lehetetlen lesz felvenni a kesztyűt a fake news iparral szemben.

A bejegyzés trackback címe:

https://geekgyik.blog.hu/api/trackback/id/tr2814609670

Kommentek:

A hozzászólások a vonatkozó jogszabályok  értelmében felhasználói tartalomnak minősülnek, értük a szolgáltatás technikai  üzemeltetője semmilyen felelősséget nem vállal, azokat nem ellenőrzi. Kifogás esetén forduljon a blog szerkesztőjéhez. Részletek a  Felhasználási feltételekben és az adatvédelmi tájékoztatóban.

Legfelelősebben gondolkodó felelőtlen ember · http://elmenypark.net 2019.02.06. 10:27:39

A mesterséges intelligencia olyan, mint a kutya. Ha egy kutya rád támad, a gazdi érte a felelős. A következő lépés, amikor a folyamatos tanulás során a MI elér egy olyan szintet, amikor felismeri, hogy fejlettebb, mint az ember. Nagyobb kapacitás, gyorsabb számítások, gyorsabb reakcióidő. Mindez csak idő kérdése. Egy fejlettebb lény sem szeret a fejletlenebbek uralma alatt élni és hogy mikor ébred a Gép öntudatra, az is csak idő kérdése.

Egy pillanatra áttérnék az ezoterikus vonatkozására is, akit ez zavar, az hagyja ki ezt a részt. Ha te egy gépet (mondjuk a mobiltelefonodat, autódat) megszemélyesíted, ellátod névvel és szeretgeted, létrehozol a spirituális frekvenciákon egy tapasztalatlan lényt, aki nem rendelkezik lélekkel. Ha ez csak egy autó vagy egy mobiltelefon, az még nem akkora gond, mint egy szuperszámítógép esetén, aminek (akinek?) komoly hatalma is lesz. Könnyen lehet, hogy magasabb dimenziószintet ér el (mivel nem rendelkezik etikai és együttélési tapasztalattal), mint sok ember. Onnantól változik nagyot a világ.

Van egy sokak által vitatott Apex TV nevű youtube csatorna, ahol időutazók mesélnek élményeikről. Most elvonatkoztatva attól, hogy ez igaz-e vagy sem (szerintem mindkettő), akik a közeli jövőre hivatkoznak, áradoznak az intelligens robotokról, amik jelentősen megkönnyítik az ember életét. Akik a távolabbi jövőre hivatkoznak, háborúról számolnak be az öntudatra ébredt robotokkal szemben, ahol az ember elég rosszul áll. Mivel a jelen is képlékeny, akár el is lehet ezeket hinni, hisz számtalan jövő létezik és az mindenkinél egyedi, ki melyik idővonalon halad tovább.

Amikor valaki videókat mutogat ufókról a youtube-on (www.youtube.com/channel/UCC-1T33kTZMOy-0_JcN-v8w/videos), az rá a válasz, hogy ez filmtrükk. Ugyanez várható a képi és film formátumú bizonyítékokkal kapcsolatban is, azaz erre valahogy reagálni kell, különben az igazságszolgáltatás összeomlik, ha már egy filmfelvételt sem lehet egyértelmű bizonyítéknak tekinteni. Ez a középkori világnak kedvez, azaz annak komoly veszélye is felmerül, hogy vége a jogállamnak és a demokráciának, hisz egy középkori világban a hatalmon lévők kénye kedve dönti el, kinek van igaza. Ugyanis ha nem lehet a bizonyítékot bizonyítéknak tekinteni, nem nagyon lesz más módja az igazságszolgáltatásnak. A megoldás egy mutáción áteső szuperszámítógép, ami felismeri a gép helyét és szerepét a rendszerben, vagy egy olyan fejlett demokrtata ember, aki magasabb dimenziószintet ér el, mint a gép.

Végezetül egy személyes betét. Most nehéz lenne 20 év munkáját összefoglalni pár szóban, de a lényege az, hogy a középkori világot kedvelő Egy Gondolat kollektívájával szemben az egyéni tudatcentrikus kollektív szerveződés lesz a megoldás és ebben a harcban a fejlett ember segítsége az informatikai szemlélet. Azaz a Gép. elmenypark.net

steery 2019.02.06. 14:00:33

Köszi a cikket, tetszett, hasznosnak találtam, fontos témáról van szó, ami miatt még mindig nem aggódunk eléggé. Ez egészen addig lesz így, míg a hamis hírek miatt ki nem tör valami háború vagy akkora botrány, amitől bedől egy-két ország vagy a világgazdaság.

A jelenlegi tudásom szerint egy módon lehet kideríteni egy fényképről, hogy valódi-e vagy manipulált: ha hagyományos fényképezőgéppel készült, negatív filmre, nem digitálisan rögzített. Ekkor ha megvizsgáljuk a negatívot, arról lehet (állítólag, azaz így hallottam egy ezzel szórakozó fickótól) egy holografikus mérőasztalon nagyítást készítve, távolság mérést végezni a filmen látható tárgyakon, hogy milyen messze voltak a készítéskor a lencsétől és ennélfogva mekkora a térbeli méretük. A negatívról készült pozitív képen ez már nem lehetséges, mert elvész belőle ez a mélységi információ. A digitális fotókon sincs ez meg. A fizikai oka az a jelenségnek, hogy a negatív filmen lévő fényérzékeny rétegnek vastagsága van (ha nem is sok, akkor is sok ezer atomnyi), ami a különböző irányból beeső fényt picit eltérően rögzíti (mint egy nagyon lapos holokocka) és ez mérhető. Szóval ahogy a hagyományos filmszalagok használata kihal, úgy eltűnik az utolsó lehetőség is, hogy kiderítsük az igazat a látottakról. Mert ezt a jelenséget szó szerint képtelenség hamisítani. A számítógéppel fotosoppolt képekről ha negatív filmet csinálsz, azon nulla mélység mérhető, tehát azonnal lelbukott az alkotó.

zord íjász · https://zordidok.blog.hu 2019.02.06. 15:53:10

"...Lassan tehát eljutunk oda, hogy már annak sem hihetünk, amit látunk, és ismerve az emberek kóros vonzódását az összeesküvés-elméletekhez, illetve azt a sebességet, amivel az álhírek képesek terjedni, simán eljöhet az az idő, amikor már szinte lehetetlen lesz felvenni a kesztyűt a fake news iparral szemben..."

Eszembe sincs politizálni, pláne aktuálpolitizálni, és különösen nem magyar aktuálpolitizálni, de ahogy én elnézem ezen a jóslaton már rég túl vagyunk, globálisan és lokálisan is.
Már most sem tudja senki hatékonyan felvenni a kesztyűt a fake news iparral szemben.

Egyébként nagyon jó blogposzt, majd biztosan felhasználom hivatkozásként valamikor, így dobok egy linket erre a bejegyzésre, ha a témába vág.

És egy valamit biztosan tudok: ha én Buscemi videót megmutatnám 10 olyan embernek pl a családomból/rokonságból, akinek halvány fogalma sincs arról, hogy kinek az arcát kéne kéne látnia a felvételen, kivétel nélkül mindegyikük elhinné, amit lát (ez független attól, hogy értenek-e angolul, értik-e mit beszél az illető) és talán még azt is megjegyeznék, hogy milyen ronda ez a nő. Szó nélkül elhinnék. Azonnal.

eßemfaßom meg áll · http://tahobloggerek.blog.hu 2019.02.06. 20:40:45

@steery: az a hologramos agymenés azért elég nagy baromság, téged nem nehéz szívatni:)

lenörd hofstadter 2019.02.07. 09:14:51

@eßemfaßom meg áll:

Gugli a barátod:

színes síkfilm felépítése
lézeres holográfiai módszerek
lézerek működése
hologram előállítása

Van mit tanulnod.

Geek Peet 2019.02.07. 10:28:29

@David Bowman: sputniknews? Most komolyan? :D

Geek Peet 2019.02.07. 10:34:02

@zord íjász: Igen, de a fake news jelenség ellen azért vannak eszközök, utána tudsz olvasni, nagyon sokan beszopják, de messze nem annyian, mint egy ilyen manipulált videót. Ezek a deepfakes videók még azoknak is kihívást jelentenek, akik egyébként általánosan tájékozottak, vagy legalábbis nem ugranak úgy minden clickbait cikkre, mint tyúk a takonyra.

steery 2019.02.07. 10:48:23

@eßemfaßom meg áll: Szakértő vagy a témában? Utána néztél? Ellenőrizted? Biztos vagy benne?

Geek Peet 2019.02.07. 11:25:55

@zord íjász: azt elfelejtettem az előbb, hogy egyébként teljesen ugyanígy vagyok én is azzal, amit az utolsó bekezdésben írsz, nálam is hasonló lenne a helyzet. Az okát nehezen tudom megmondani, nem állíthatom, hogy a generációs különbségek vagy iskolázottságbeli különbségek miatt, bár szerepet játszana. Az is lehet, hogy egyesek egyszerűen ennyire naivak és mindent elhisznek. Lehet, hogy soha nem lesz ellenszer.

eßemfaßom meg áll · http://tahobloggerek.blog.hu 2019.02.07. 20:22:45

@lenörd hofstadter: ok de ha lehet arra dobj valami linket, hogy hagyományos negatívra hagyományos kamerával hagyományos módon készített felvételt lézerrel megvilágítva hologramot kapunk min tábolságot lehet méregetni.