Íme egy újabb bizonyíték, hogy mégsem kéne túlzottan megbízni az AI-ban. A „könyvmolyok és sorozatfalók közösségi appjaként” reklámozott Fable a Spotify Wrapped összefoglalóihoz hasonlóan év végén elkészíti a felhasználók olvasási szokásairól szóló áttekintést. Úgy tűnik azonban, némi hiba csúszott a gépezetbe – számol be a Literary Hub.
„Néha fehéreket is olvass, jó?”
Az elképzeléssel alapvetően nincs gond: az app a könyvek és a filmek szerelmeseinek kíván felületet teremteni tapasztalataik megvitatására, de lehet listákat létrehozni vagy éppen olvasási célokat beállítani is. A személyes kapcsolatokat támogató kezdeményezés azonban pont itt csúszott igencsak félre, az olvasmányélmények kommentálására ugyanis OpenAI-szoftert kezdtek alkalmazni – katasztrofális eredménnyel.
A könnyed és szórakoztató visszatekintések helyett ehhez hasonló mondatokkal találkoztak a könyves közösség tagjai: „utad a fekete narratívák és a szemléletformáló történetek szívébe vezet, míg a mainstream sztorik levegő után kapkodnak”,
a végére még odaszúrva, hogy néha azért jó lenne fehér szerzőket is fogyasztani.
Egy másik felhasználó választásai elgondolkodtatták a cinikus hangulatban lévő mesterséges intelligenciát, hogy hajlandó-e az illető egyáltalán „ciszhetero, fehér férfiak perspektívájáról” is olvasni.
Nemcsak az anti-woke megnyilvánulások repkedtek: a fogyatékkal élőkről szóló könyvek is kapták az ívet, ami nem meglepő módon tovább fokozta a felháborodást. A New York Times cikke szerint a Fable igyekszik javítani a hibákat, és felhagy az AI-használatával.
Talán mégis maradni kéne az emberi munkaerőnél?
Nem ez az első eset, hogy hasonló hibát eredményez az MI használata: az OpenAI korábban kizárólag nem fehér embereket hozott létre, amikor foglyok generálására szólították fel, és csak fehéreket, amikor CEO-król volt szó – arról nem is beszélve, hogy a rendőrség által alkalmazott arcfelismerő technológia nem működik a feketék esetében.
(Literary Hub, New York Times)
Fotó: Tara Winstead (Pexels)