top of page

Vukics Ferenc: Lehet hogy „lázadás” miatt állt le a Facebook! – „MI” veszély?




Maria Zakharova, az orosz külügyminisztérium szóvivője a Facebook-szolgáltatások múlt heti közel hatórás kimaradása során azt mondta, hogy „ez a történés megválaszolja azt a kérdést, hogy szükségünk van-e saját közösségi hálóinkra és internetes platformjainkra” – közölte a Reuters és a The Times október 5-én. Ám van egy kis probléma. A Reuters és a The Times a TASS orosz állami hírügynökség október 4-i jelentését vette át. Az eredeti TASS-jelentés által idézett nyilatkozat, amelyet Zakharova osztott meg október 4-én a hivatalos Telegram-csatornáján, ennél jóval többet tartalmazott. Az orosz külügyminisztérium szóvivője nyilatkozatában hivatkozott egy New York Times cikkre, amely leírja, hogy „a Facebook alkalmazottai fizikailag nem tudtak bejutni, hogy felmérjék a probléma mértékét, mivel az elektronikus hozzáférést biztosító jogosítványaik valamilyen okból nem működnek.”

A The Times eltüntette ezt a Zakharova által hivatkozott szövegrészt az október 6-án megjelent cikkéből. A hivatkozott, azóta eltüntetett cikk szerint a Facebook műszaki csapatának a kaliforniai Santa Clara egyik adatközpontjában csak ipari sarokcsiszolók segítségével sikerült bejutnia egy irányítóhelyiségbe, hogy hozzáférjenek a szerver számítógépekhez.

A Facebook legutóbbi jelentős kimaradása 2019-ben volt, amikor egy technikai hiba miatt 24 órán keresztül leállította a webhelyek működését, emlékeztetve arra, hogy egy hiba még a legerősebb internetes cégeket is megbéníthatja.

2017-ben a Facebook mesterséges intelligencia-kutatásért felelős szakemberei nemrég két csevegőbotot engedtek egymásnak, hogy a gépi tanulás segítségével gyakorolják a kommunikációt. A korábbi sajtóhírek szerint pánik lett a vége. A fejlesztők eredetileg azért engedték össze a csevegőbotokat, hogy egymással beszélgetve javuljon a kommunikációs képességük. Ehhez képest ahelyett, hogy angolul beszéltek volna, olyan mondatokat küldözgettek egymásnak, amelyek az emberek számára értelmetlennek bizonyultak, ők azonban tökéletesen megértették egymást.

Az eset kapcsán az elmúlt napokban több helyen is megjelent a hír, miszerint a Facebook fejlesztői annyira megijedtek a mesterséges intelligencia által kitalált nyelvtől (mivel azt nem értették, ellentétben a géppel), hogy jobbnak látták, ha az egész rendszert lekapcsolják. A Gizmodo szerint azonban szó sem volt ilyesmiről, a korábban szárnyra kapott hírek pedig túlzóak voltak. A fejlesztők még júniusban írtak a Facebook blogján arról, hogy a szóban forgó botokat „alkudozásra” találták ki, legyenek képesek egyezségre jutni egymással, illetve befolyásolni a másik véleményét. A Gizmodo szerint a csevegőbotok soha nem csináltak mást, csak végezték a rájuk bízott feladatot.

Az eredeti cél az volt, hogy olyan eszközt fejlesszenek ki, amely az emberi viselkedésből tanulva fejlődik, egészen addig, míg végül a felhasználó nem fogja tudni eldönteni, hogy emberrel vagy géppel beszélget-e. A mesterséges intelligencia kutatásáért (Facebook Artificial Intelligence Research /FAIR/) felelős szakemberek szerint pedig a projekt sikeres volt.

A fejlesztők, amikor egymásnak engedték a két csevegőbotot, abban hibáztak, hogy nem kötötték ki: csak az angol nyelv szabályainak megfelelően folytathatják a beszélgetést. Az „ijesztő” robotnyelv emiatt alakulhatott ki. A hivatalos közlések szerint a hiba megjelenése után a fejlesztők valóban leállították a rendszert, azonban nem azért, mert megijedtek volna tőle, csupán azért, hogy ne egy rossz metódust tanuljanak meg a robotok.

Ettől függetlenül persze még jó okunk lehet arra, hogy megakadályozzák a számítógépnek, hogy saját dolgokat fejlesszen ki – kontroll alatt ugyanis csak akkor lehet tartani ezeket az eszközöket, amíg a fejlesztők értik, mit miért tesznek és mondanak –, az ilyen „kommunikációs” hibák azonban általánosak.

Szeptember elején a mesterséges intelligencia újabb rasszista botlása miatt tört ki botrány a Facebooknál. A közösségi oldal tartalomajánló algoritmusa fekete férfiakat tartalmazó videó alatt érdeklődött a felhasználóknál, hogy szeretnének-e még több, főemlősökről szóló filmet nézni.

A probléma oka az volt, hogy a felhasználó érdeklődési köreiről információt gyűjtő rendszer automatikusan a „főemlősök” címkét adta a videóhoz. A történetet tovább árnyalja, hogy a felvételen egyébként fehérek által kezdeményezett rendőri fellépés volt látható, amely során feketéket tartóztattak le. A cég a jelenlegi malőr nyomán lekapcsolta az ajánlófunkciót. Megígérték továbbá, hogy kivizsgálják az esetet, hogy többször ne fordulhasson elő.

A számítógépes játékokat már évek óta használják mesterséges intelligenciák képességeinek felmérésére. A Google-hoz tartozó DeepMind 2013-ban mutatott be olyan rendszert, amely emberfeletti módon tudott Pongot, Breakoutot és Space Invaderst játszani. A tesztelés eredménye azonban mégsem egy szuperül játszó MI – vagy még jobb játékok – fejlesztése, ahogy a DeepMind alapítója, Demis Hassabis is rámutatott: az ilyen mesterséges intelligenciák később elképesztően bonyolult fehérjestruktúrákat fedeznek fel, vagy CT-felvételeket értelmeznek. Az ilyen megerősítésalapú tanulási módszerek összetett gyártási folyamatok működtetésére, pénzügyi portfóliók kezelésére vagy önvezető autók irányítására képesek.


***


A Kreml az elmúlt években törvényt hozott arról, hogy az ellenséges kormányok ne akadályozhassák meg Oroszország hozzáférését a külföldi infrastruktúrákhoz. Moszkva szerint ez az elméleti támadás valódi fenyegetés maradt, tekintettel az amerikai kormány nemzeti kiberbiztonsági stratégiájának „agresszív jellegére”.

Oroszország 2019 decemberében elfogadta a „szuverén internet” törvényt. A törvény elméletileg segít Moszkvának átirányítani Oroszország adatait és webes forgalmát az államilag ellenőrzött ellenőrző pontokon, csökkenti a külföldi szerverektől való függését, és megvédi a nemzeti internetrendszert a külföldi támadásoktól. Az orosz kormányzat már nemcsak az egyes országok támadásától tart, hanem elképzelhetőnek tartja, hogy egy „gondatlanul fejlesztett és elszabadult MI (mesterséges intelligencia)” is leállásokat okozhat.

Korábban Oroszország ideiglenesen lekapcsolta magát a globális internetről a júniusban és júliusban végzett tesztek során. Az orosz internetes biztonság javításával megbízott munkacsoport „sikeresnek” ítélte a teszteket – jelentette az RBC orosz híroldal július 21-én.


***


Áprilisban jelent meg magyarul Tilesch György és Omar Hatamleh Mesterség és Intelligencia című könyve. A szerzők szerint a Facebook üzleti modellje nem szolgálja a társadalom érdekeit.


„Bizonyos cégek és államok úgy gondolják, tudják, mi a mesterséges intelligencia fejlesztési és terjesztési iránya, mi lesz legjobb a társadalomnak, de ugyanezek az emberek, amikor nem a szónoki emelvényről beszélnek, hanem magánemberként, bizalmas légkörben, akkor elárulják a félelmeiket. A science-fiction világa erőteljesen beszűrődött a mainstreambe. Mi ezt inkább kártékonynak látjuk, elsősorban azért, mert valahova a távoli jövőbe vetíti a problémát, és ezzel elvonja a figyelmet a jelenről, a most megoldandó problémákról.

Mi azt szeretnénk bebizonyítani a könyvben, hogy a mesterséges intelligencia nem jövő idejű kérdés, hanem jelen idejű, és a legnagyobb civilizációs feladatunk jelenleg ennek a megfelelő irányba állítása.”


„A mesterséges intelligencia egy marketing »buzzword«. Egy ernyő, körülbelül 15 technológiai ágazat összefoglaló neve. A mesterséges intelligencia körülbelül ötven éve született meg, mint tudományág a mi Neumann Jánosunk aktív közreműködésével, a Princeton Egyetemen. Az az 5-6 ember, aki akkor elkezdett dolgozni ezen, azok nagy része játékelméletekkel foglalkozott, ezért a korai definíciók is a játékosításra épültek. Alan Turing például kitalálta a Turing-tesztet, amelynek lényege, hogy egy játék-környezetben, gyakorlatilag egy chatszobában kell valakinek kitalálnia azt, hogy akivel épp beszélget, az robot vagy ember. Ha nem tudja eldönteni, akkor megszületett az emberrel ekvivalens, úgynevezett általános mesterséges intelligencia.”


„Eddig egy gép az alapján tudott működni, amit beleprogramoztak. A mesterséges intelligencia pont ezt a határt haladja meg. Egyre növekvő autonómiát adunk a gépek kezébe. Képesek ajánlásokat adni, vagy ha hagyjuk, akár döntéseket hoznak helyettünk, ráadásul sokkal több adatpont alapján, mint amit az emberi elme képes kezelni, sokkal hatékonyabban, és közben nem kérnek enni. Ez egy nyílt végű folyamat, és ez az, ami félelmetessé teszi. Ez az, amiben a sci-fi filmeknek igaza van: bizony, eljöhet az a pont, amikor az emberrel egyenértékű lesz a mesterséges intelligencia. Bár azt gondolom, ha meg is történik ez, akkor is a nagyon távoli jövőben. Igaz: azt a pillanatot körülbelül két perc választja el attól, hogy az MI szuperintelligenciává váljon, magyarán az embert messze meghaladóvá. Onnantól a bolygó és az univerzum uralása sincs nagyon messze. Tehát ezek igaz narratívák, amikkel foglalkoznunk kell, de mi a könyvünkben azt mondjuk, hogy a jelenre és a közeljövőre kell fókuszálnunk, mert itt tudunk cselekedni.”


Az biztos, hogy maximálisan óvatosnak kell lennünk, ami nem azt jelenti, hogy le kell mondanunk erről a technológiáról, hanem hogy fékeket és ellensúlyokat kell beépíteni. Egyébként az Európai Unió nemrégiben jelentette meg az világ első mesterségesintelligencia-szabályozását. Ők nagyon erősen a kockázatokra helyezik a hangsúlyt. Ha úgy tetszik, a Kádári »tiltott, tűrt, támogatott« rendszerhez hasonló kategóriákat vezettek be. Bizonyos MI technológiákat kifejezetten tiltani akarnak. Persze vannak kiskapuk. Mondok egy példát: elsődleges veszélyként a manipulációt határozták meg. De kérdezem én, mi számít annak? A marketing nem manipulatív? A közösségi média nem manipulatív? Vagy a politikai hirdetés? Hol lesznek a manipulálás határai?”


„Ami a »kikapcsoló gombot illeti«, Kürti Sándornak abban mindenképp igaza van, hogy azt szabályozásként be kell építeni mindenhová. Ezzel csak két probléma van: Az egyik, hogy a kockázatok nem azonnal derülnek ki. A mesterséges intelligenciában pont az a félelmetes, hogy amit egy ember száz év alatt végez el, azt ő öt perc alatt. Már ma is sok olyan kormányzati MI rendszer van a világon, ami az emberek életére hatással bír. Kevesen tudják például, hogy Amerikában a feltételes szabadlábra helyezéseknél 30-40%-ban mesterséges intelligencia támogatja a bíró döntését.”


„A gond ott kezdődik, amikor az emberi beavatkozás, kontroll lehetőségét elengedjük, ami az emberi lélektől nem teljesen idegen. Amikor azt mondjuk, hogy a gép úgyis okosabb, nekem ezzel nincs is dolgom. Ezt tesztelték is már, és az lett az eredmény, hogy a tisztségviselők 98-99%%-ban nem bírálják felül a gép javaslatát. Tehát az egyik probléma, hogy hiába van ott a kikapcsoló gomb, az ember nem fogja használni. A másik probléma, hogy nagyon nagy károkat tud okozni egyetlen hiba is. Amire elérünk a gombhoz, addigra már megszületik több millió döntés. Lehet, hogy a fejlesztő szemével az csak egy „bug”, amit két héten belül majd megold, de a társadalom szempontjából óriási károkat okozhat, a jogi következményekről nem is beszélve.”


Néhány éve, amikor Elon Musk 115 társával petíciót írt az ENSZ-hez, hogy tiltsák be az autonóm fegyvereket, akkor Vlagyimir Putyin is megszólalt a kérdésben. Az orosz vezető a következőket mondta: „A világ ura lesz az az ország, amelyik elsőségre tesz szert a mesterséges intelligencia kifejlesztése terén.” Putyin ígéretet tett arra, hogy Oroszország megosztja majd az általa kifejlesztett technológiát a világgal.

Szépen hangzik, de valójában már az ígéret is ijesztő távlatokat nyit meg. Az is szép, hogy a nemrégiben bevezetett szabályozás kapcsán kijelenthetjük, hogy mi, európaiak önmérsékletet tanúsítunk az MI használata terén. Talán csak ezzel akarjuk takarni innovációs lemaradásunkat. Más nagyhatalmak, tech-cégek nem ilyen belátóak, és elképesztő erőfölényre tehetnek szert.

Az ENSZ egyébként már évek óta foglalkozik az autonóm fegyverek betiltásával. A gond az, hogy az öt legnagyobb tagállam ellenáll, épp ezért a szakemberek attól tartanak, hogy ki fogják üresíteni a szabályozásra való törekvés dokumentumait. Az MI szoftveres hadászati alkalmazásai ennél jóval tágabbak, és ezen a téren most is folyamatosan háború zajlik, amiről a közvélemény nem is nagyon tud. Egy NATO főtisztviselő 3-4 évvel ezelőtt azt mondta zárt ajtók mögött, hogy napi 60 ezer támadás éri a NATO szerverparkját.

Tilesch György szerint a Facebook átvette a társadalmi párbeszéd szerepét:


„A könyvben is sokat írunk arról, hogy korunk egyik legkarakteresebb jellemzője a bizalomvesztés. Nem bízunk senkiben és semmiben: sem az intézményekben, sem a politikusokban. Ez alól a mesterséges intelligencia sem kivétel. Most már többségben vannak a világban azok, akik féltik a kormányoktól és a cégektől az adataikat, félnek, hogy ellenük fogják felhasználni a mesterséges intelligenciát. Két évvel ezelőtt még nem ez volt a helyzet.”


„Mit mondunk mi a könyvben? Új technológiai generációra van szükség. A közérdeket szolgáló technológiákat kell támogatni és terjeszteni, amelyek alapvetően arra építenek, hogy a felhasználó megbízik bennük, és minden okot meg is adnak rá, hogy a felhasználó megbízzon bennük. Egyik vesszőparipám, hogy a Facebook átvette a társadalmi párbeszéd szerepét. Miért fogadtuk el, hogy ez az egyedülálló modell? Gondoljuk újra! Azzal a kérdéssel kell kezdenünk, hogy milyen üzleti és technológiai modellek, milyen dizájnok és objektívák szolgálják a társadalom érdekeit, mert hogy a Facebook üzleti modellje nem szolgálja a társdalom érdekeit, az is biztos.”


 

Forrás:

96 megtekintés
legte Tanka.jpg

VARGA DOMOKOS GYÖRGY művei itt és a wikin

dombi 2023.jpg
vukics boritora.jpg
acta 202305.png
gyimothy.png
dio.jpg
KIEMELT CIKKEK
MOGY2023.jpg
bottom of page