Torzítja az emberek hiedelmeit a modern technológia?

A technológia fejlődése újabb és újabb lehetőségeket nyit az emberi információéhség enyhítésére, azonban lehetséges, hogy ezek a téves és veszélyes hiedelmek terjedéséhez is hozzájárulnak.

A technológia fejlődését a történelem során mindig vegyes érzelmekkel szemlélte az emberiség. Voltak, akiket lenyűgöztek az új lehetőségek és olyanok is, akik inkább a veszélyekre figyeltek. Az internetes keresőmotorokat sokan üdvözlik, mert megkönnyítik az érdekes információk felkutatását, mások épp azért kárhoztatják, mert szélsőséges és megbízhatatlan tartalmakat is megjelenítenek. A mesterséges intelligenciában egyesek páratlan lehetőséget látnak az információszerzés megkönnyítésére, mások viszont épp attól tartanak, hogy csak még jobban elmélyíti a problémákat, amik a téves hiedelmek terjedéséből adódnak.

Mit mutatnak a keresőmotorok?

Kétségtelen, hogy ezek a technológiák hatással vannak arra, hogyan gyűjt információt az ember és így befolyásolhatják, hogy milyen hiedelmeket vall magáénak, hogyan alakul a világképe. Éppen ez az, ami miatt a szakértők között is bőven akadnak, akik a keresőmotorok és a generatív mesterséges intelligencia veszélyeire fókuszálnak.

A keresőmotorok algoritmusai a népszerűségük alapján súlyozzák a keresési eredményeket, anélkül, hogy az adott tartalom megbízhatóságát bármilyen módon figyelembe vennék. Így tehát elképzelhető és sokan meg is fogalmazták már ezt az aggályt, hogy a keresőmotorok is hozzájárulnak a téves információk terjedéséhez és például az összeesküvés-elméletek térnyeréséhez. Egy új kutatás eredményei azonban azt sugallják, hogy a keresések során kialakuló részrehajlás nem a keresőmotorok működésén, inkább az emberek döntésein múlik.

Ezt a jelenséget eddig ritkán vizsgálták tudományos igényességgel. Van egy tanulmány 2015-ből, ami azt mutatta ki, hogy a Facebook felületén nem az algoritmus által megjelenített tartalmak, hanem az egyének döntései voltak meghatározók a szélsőséges nézetekkel összeegyeztethető tartalmak kiválasztásában. A tanulmánnyal annyi a probléma, hogy a Facebook dolgozói végezték és az adatokhoz nem férnek hozzá független kutatók, akik megerősíthetnék vagy kétségbe vonhatnák az eredeti következtetéseket.

Az új kutatás azonban merőben más módszerrel zajlott. A kutatók arra kérték a résztvevőket, hogy telepítsenek fel egy alkalmazást, ami rögzíti az összes keresésüket, hogy milyen linkekre kattintanak és hogy milyen weboldalakat látogatnak meg. A kutatók több száz ember adatait rögzítették hónapokon keresztül. Az oldalakat egy korábbi kutatás alapján kategorizálták aszerint, hogy milyen politikai nézeteket vallanak. A résztvevőket önbevallásos válaszok alapján csoportosították politikai nézeteik szerint (a részvevők amerikaiak voltak, a csoportok pedig erősen demokrata, erősen republikánus és független).

Az adatok azt mutatták, hogy a keresések eredményeiben nem tűntek fel gyakrabban szélsőséges nézeteket közvetítő felületek, attól függően, hogy az adott résztvevő milyen politikai beállítottságú volt. Hogy milyen linkeket követtek a keresési eredményekben, már más mintázatot mutatott. A szélsőséges személyek jóval nagyobb eséllyel követtek olyan linkeket, amelyek a saját nézeteiknek megfelelő tartalmakat osztottak meg. A vizsgálat konklúziója tehát az, hogy nem a keresőmotorok algoritmusai, hanem maguk a keresők, vagyis a böngésző személyek felelnek a szélsőséges tartalmak fogyasztásáért.

A keresőmotorok algoritmusai határozzák meg, hogy milyen tartalmakat talál meg könnyen az ember, azonban egy új vizsgálat szerint nem ez a fő faktor a szélsőséges nézetek terjedésében (Forrás: google.com).

Mit mond a generatív mesterséges intelligencia?

Az ún. generatív mesterséges intelligenciákat óriási mennyiségű adaton trenírozzák, így képessé válnak olyan mintázatok létrehozására, amiket az adathalmazból kiszűrtek. Ez a technológia a közelmúltban robbant be a köztudatba, olyan rendszerek révén, melyek szövegeket, képeket vagy akár zenét hoznak létre rövid szöveges parancsok nyomán. A közbeszédben is sok kérdés jelent már meg a generatív mesterséges intelligenciával kapcsolatban, azonban azzal eddig kevéssé foglalkoztak a kutatók, hogy milyen ártalmas hatásai lehetnek, ha az emberek központi információforrásként kezdik kezelni a mesterséges intelligenciát.

A ChatGPT az egyik legismertebb generatív mesterséges intelligencia, amely szövegeket alkot a felhasználók kérései nyomán (Forrás: google.com).

A mesterséges intelligenciák statisztikai összefüggéseket sajátítanak el a tanulásra szolgáló adatban, ezzel képessé válnak olyan mondatokat és szövegeket alkotni, melyek értelmesek és összefüggőek, ráadásul tartalmilag is elfogadhatóak. A mesterséges intelligenciák azonban nem képesek meghatározni, hogy melyik információ megbízható és melyik nem, illetve azt sem, hogy épp egy valós ténnyel állnak-e szemben. Ezekre a problémákra egyelőre nincs megoldás, hiszen a mesterséges intelligencia csupán csak átveszi a szövegekben is fellelhető mintázatokat, arra nem képes, hogy megítélje, melyek kártékony nézetek (pl. erőszakra sarkalló, diszkriminatív stb.).

Az igazi aggodalomra az ad okot a szakértők szerint, hogy az emberek hiedelmeinek formálódásában több olyan tényező is van, amely teret enged a mesterséges intelligencia befolyásának. Ezek a faktorok teszik lehetővé, hogy a mesterséges intelligenciák nagy hatással legyenek az emberek hiedelmeire. Az első tényező, hogy jelentősen befolyásolja a hiedelmekbe vetett bizalom és a tanulás mértékét, hogy mennyire tekinti megbízhatónak az ember a forrását. Ez már fiatal gyermekeknél is megfigyelhető, már a kisgyermekek is leszűrik, hogy mennyire kompetens egy személy, ez alapján figyelnek rá és követik a példájukat. Az embernél ráadásul számos módja van a bizonyosság kommunikálásának. A beszédben például olyan frázisok jelennek meg, mint „én úgy gondolom, hogy …” vagy „szerintem …”. Ezen felül lehetnek hosszabb-rövidebb szünetek, vagy átfogalmazások, melyek mind a bizonytalanságot jelzik. Ilyen szignálokat nem küld egy mesterséges intelligencia, hiszen folyton konzisztens sebességgel alkotja meg a mondandóját és nem használ az említettekhez hasonló jelzéseket. Ráadásul az emberek könnyedén tulajdonítanak intencionalitást különböző ágenseknek, vagyis hajlamosak érző, értő lénynek tekinteni olyan dolgokat, amelyek imitálják a cél-vezérelt viselkedést. Ezek a tényezők mind hozzájárulnak, hogy a generatív mesterséges intelligenciákat hiteles forrásnak tekintsék az emberek és az általuk adott válaszokat megjegyezzék, beépítsék a világképükbe.

Ezeken felül más szempontok is szerepet játszanak abban, hogy a szakértők szerint a mesterséges intelligencia komoly tényezőt jelent az emberiség hiedelmeinek formálásában. Számos eredmény mutatja például, hogy a sokszor ismételt téves információkat egy idő után megbízhatóbbnak ítélik az emberek. A mesterséges intelligencián alapuló rendszerek elterjedésével az általuk terjesztett téves hiedelmek is egyre többet lesznek ismételve. Ráadásul a jövőben várhatóan egyre nagyobb hatása lesz a generatív modelleknek az interneten fellelhető tartalmakra. Mivel a jövőbeli modellek számára ez lesz a tréning adatsor, ezért a benne lévő részrehajlások egyre mélyebbre nyúlhatnak.

Végül érdemes megemlíteni az emberi kíváncsiság természetét is. A kíváncsiság központi a tanulás szempontjából, hiszen információgyűjtésre motiválja az embert és segíti az információ megjegyzését is. Ehhez viszont szükség van némi bizonytalanságra, hiszen lényegében attól válik kíváncsivá az ember, hogy valamiben bizonytalan és ki akarja deríteni, hogy is van valójában. Elképzelhető, hogy ebben a helyzetben egy mesterséges intelligenciához fordul, ami téves információval szolgálja ki. Ennek hatására csökken a bizonytalanság, alábbhagy a kíváncsiság és az új hiedelmet már sokkal nehezebb lesz megváltoztatni.

Mindezek tehát arra utalnak, hogy a mesterséges intelligenciák tovább mélyíthetik a téves hiedelmek problémáját, ami enyhébb esetben is diszkriminációhoz és igazságtalanságokhoz vezet, a súlyosabb esetekben pedig akár veszélyeztetést vagy szándékos károkozást eredményez. A szakértők szerint ezek olyan problémák, amikkel most kell foglalkozni, hiszen, ha a mesterséges intelligencia mélyebben integrálódik a hétköznapokba, akkor egyre nehezebb lesz kikalapálni a csorbát, amit az emberiség hiedelmein ejthet. Ugyanakkor elgondolkodtató, hogy már a keresési találatokban is olyan tartalmakat preferálnak az emberek, amelyek összhangban vannak a saját szélsőséges nézeteikkel.

Ez a cikkem az Élet és Tudomány Agyi aktualitások rovatában jelent meg.

Források

How AI can distort human beliefs | Science

People, not search-engine algorithms, choose unreliable or partisan news (nature.com)