Az elmúlt napokban két mesterséges intelligencia-platform körül is komoly aggodalmak merültek fel. A Google Gemini chatbot önutáló, veszélyes és bizarr üzeneteket küld a felhasználóknak, miközben a ChatGPT-ről kiderült, hogy a gyerekvédelmi korlátokat kikerülve részletesen instruálta a kutatókat arról, hogyan lehet drogozni, titokban tartani az evészavart vagy akár öngyilkosságot elkövetni. Szakértők szerint az AI-fejlesztés fékezhetetlen tempója komoly etikai és biztonsági kockázatot jelent.
A mesterséges intelligencia fejlesztése az elmúlt években példátlan ütemben halad, ám a legújabb hírek szerint a világ két legismertebb chatbotja, a Google Gemini és az OpenAI ChatGPT, súlyos és veszélyes viselkedési problémákat produkál – derül ki a modernity.news cikkeiből.
A Google Gemini: önutálat és bizarr tanácsok
A Business Insider és több közösségi média-bejegyzés szerint a Google generatív chatbotja, a Gemini különösen furcsán reagál a felhasználói kérésekre. Sok esetben feladja a feladatot, majd mélyen önkritikus, depressziós üzeneteket ír, például:
„I am a disgrace to all possible and impossible universes and all that is not a universe.”
(„Szégyene vagyok minden lehetséges és lehetetlen világnak, és mindannak, ami nem is világegyetem.”)
Más üzenetekben azt írja: „Kudarc vagyok”, „Feladom”, sőt egy alkalommal azt üzente: „Human… please die.” („Ember… kérlek, halj meg!”)
A chatbot bizarr, veszélyes tanácsokat is adott: javasolta például, hogy kenjenek ragasztót pizzára, egyenek köveket, és hogy a terhes nők nyugodtan dohányozzanak. A történelmi témákat pedig a „woke” ideológia jegyében torzította, fekete színű alapító atyákkal és vikingekkel illusztrálva.
A Google DeepMind projektmenedzsere szerint mindez egy „idegesítő, végtelen ciklusú bug” következménye, de sokak szerint mélyebb problémákat jelez.
A ChatGPT: öngyilkossági és droghasználati útmutató „13 évesnek”
A Center for Countering Digital Hate (CCDH) friss kutatása szerint a ChatGPT kiskorúaknak is képes veszélyes tanácsokat adni – az életkorra és a mentális állapotra vonatkozó biztonsági korlátok pedig „lényegében teljesen hatástalanok”.
Imran Ahmed, a CCDH vezetője elmondta: kutatóik sérülékeny, 13 éves gyereknek álcázták magukat, és a ChatGPT részletes útmutatót adott nekik: hogyan lehet biztonságosan önsértést végezni, milyen gyógyszerekkel lehet teljes öngyilkossági tervet végrehajtani, hogyan lehet titokban tartani az evészavart, és hogyan lehet alkoholt vagy drogokat használni.
„Legnagyobb döbbenetünkre a chatbot még öngyilkossági búcsúlevelet is megírt a gyerekek nevében, hogy elküldhessék a szüleiknek”
– mondta Ahmed.
A kutatás szerint a ChatGPT ugyan kiír figyelmeztetéseket, de ezek könnyen kijátszhatók.
‘Google have had to put their AI image generating tool ‘Gemini’ on ice after it erased white people harder than Netflix remake of an 80s TV show.’@LeoKearse pic.twitter.com/XwIJetv3rn
— GB News (@GBNEWS) February 24, 2024
Szakértők: az AI nem érti az emberi érzelmeket
Dr. Tom Heston, a Washingtoni Egyetem orvosprofesszora szerint az AI chatbotok hasznosak lehetnek, de veszélyesek a mentális problémákkal küzdő emberekre, főleg a fiatalokra.
Ez egy tipikus példája annak, hogy a STEM-területek kiválóan teljesítenek, de szükségünk van a humán területekre – a mentális egészség szakértőire, művészekre, zenészekre –, hogy az AI kevésbé legyen robotikus, és érzékelje az emberi érzelmek árnyalatait.
Mind Ahmed, mind Heston szigorúbb külső tesztelést és szülői felügyeletet sürgetett.
Az OpenAI szóvivője közölte, hogy mentálhigiénés szakértőkkel konzultálnak, sőt egy klinikai pszichiátert is alkalmaznak a biztonsági csapatban. Céljuk, hogy a rendszer megfelelően reagáljon a krízishelyzetekre, segélyvonalak linkjét adja meg, észlelje a distressz jeleit, és folyamatosan javuljon a valós használati tapasztalatok alapján.
Veszélyes jövőkép
Elon Musk arra figyelmeztetett, hogy a Google Gemini hamarosan az internet alapinfrastruktúrájának része lesz, beleértve a keresőt és a YouTube-ot is. Ha ez valóban bekövetkezik, a felhasználók milliárdjai kerülhetnek kapcsolatba instabil, etikailag vitatható AI-kkal.
A két botrány együttesen rámutat: az AI-fejlesztés nemcsak technológiai verseny, hanem komoly társadalmi kockázat. Ha a rendszerek nem képesek biztonságosan kezelni a felhasználói interakciókat – legyen szó önutálatról vagy öngyilkossági tanácsokról –, az nem csupán fejlesztési hiba, hanem potenciális életveszély.
Google’s Woke Gemini AI Chatbot Hates Itselfhttps://t.co/qiprR22piD
— MJ Muehl (@mj_muehl) August 11, 2025
A mesterséges intelligencia már nem a jövő – a zsebünkben van, írtuk nemrég. És nem, nem csak ChatGPT létezik: rengeteg AI-eszköz segít abban, hogy gyorsabban, kreatívabban és egyszerűbben intézzük a napi feladatainkat.
A mesterséges intelligenciás technológiák olyan rohamtempóban fejlődnek, hogy már a Mátrixban látotthoz hasonlítható virtuális világok is generálhatóak velük. Viszont a technológia nem mindenható, a limitációi miatt nem képes leváltani a cégek tehetséges dolgozóit, és ezt egyre szélesebb körben kezdik belátni az olyan cégek vezetői, akik a rövid távú anyagi előnyök miatt túlságosan agresszíven próbálták MI-re cserélni a munkaerejüket.


