A Google úgy döntött, hogy visszavonja szolgáltatásainak egy részét. mesterséges intelligenciával generált egészségügyi összefoglalók a keresési eredmények közül, miután egy újságírói vizsgálat kimutatta, hogy azok hibás és potenciálisan veszélyes orvosi információkat tartalmazhatnak. A lépés az úgynevezett funkciókat érinti. AI áttekintések, a Google Keresés tetején megjelenő gyors válaszmezők.
A vállalat fenntartja, hogy ezek az összefoglalók általában hasznos és megbízható a legtöbb felhasználó számáraDe az esetet egy brit újság tárta fel. Az őrző Kiemelt figyelmet kapott az, hogy a Google hogyan kezeli az egészségügyi vonatkozású kereséseket, ami különösen érzékeny terület mind az Egyesült Királyságban, mind Európa többi részén.
Miért távolította el a Google az AI-áttekintéseket az egészségügyből?
A vita akkor robbant ki, amikor A Guardian megállapította, hogy a mesterséges intelligencia által generált áttekintések megfelelő kontextus nélküli orvosi elemzési adatokat adtak vissza.Pontosabban, amikor a „mi a májfunkciós vérvizsgálatok normál tartománya” vagy a „mi a májfunkciós teszt normál eredménye” kifejezésekre kerestünk, a Google mesterséges intelligenciája egy hosszú listát jelenített meg a normálisként bemutatott numerikus értékekről, anélkül, hogy tisztázta volna, hogy ezek a tartományok több személyes tényezőtől függenek.
A hepatológiai szakemberek és a betegszervezetek szóvivői arra figyelmeztettek, hogy az információk ilyen módon történő bemutatása káros lehet. félrevezető a súlyos májbetegségben szenvedők számáraEgy olyan felhasználó, akinek tünetei vannak, vagy akinek kórtörténetében szerepel az állapot, az eredményeket ezeken az általános tartományokon belül láthatja, feltételezheti, hogy minden rendben van, és elhalaszthatja a háziorvos vagy szakorvos felkeresését – ami különösen aggasztó az olyan egészségügyi rendszerekben, mint Spanyolország, ahol a korai észlelés ez kulcsfontosságú.
Az egyik leginkább kritizált pont az, hogy az összefoglalók nem vették figyelembe az olyan alapvető változókat, mint a a beteg életkora, neme, etnikai hovatartozása vagy állampolgárságaA gyakorlatban ez különböző laboratóriumokból és országokból származó referenciák keverését jelenti, ami a pontosság látszatát kelti, amit klinikailag valójában nem támasztanak alá.
A kutatás közzétételét követően a Google a következő lépéseket tette meg: tiltsa le az AI Áttekintéseket azoknál a specifikus májfunkciós lekérdezéseknélAz érintett keresések, maga az elemzés szerint Az őrzőLeállították a mesterséges intelligencia mezőjének megjelenítését, bár sok esetben az első organikus találat pontosan az a cikk lett, amely elítélte a problémát.
A leginkább érintett egészségügyi konzultációk: májfunkciós vizsgálatok
A legszembetűnőbb példák a jól ismert májfunkciós tesztekhez kapcsolódtak, amelyek nagyon gyakoriak mind az alapellátásban, mind az európai kórházakban. Ezek a tesztek számos elemzést tartalmaznak (például ALT, AST, bilirubin, alkalikus foszfatáz és GGT), amelyekhez szükség van személyre szabott klinikai értelmezés és nem foglalhatók össze egyetlen, mindenkire érvényes tartományban.
Vanessa Hebditch, a kommunikációs és politikai igazgató szerint Brit MájtrösztA Google mesterséges intelligenciája által generált válaszok olyan számok listái, amelyek nem is mindig feleltek meg az adott tesztnek amit egy betegen el lehetett volna végezni. Továbbá nem volt világos, hogyan lehet, hogy valaki látszólag normális eredményeket produkál, és mégis súlyos, korai stádiumú májbetegségben szenved.
Hebditch üdvözölte a Google azon döntését, hogy eltávolította ezeket az összefoglalókat, és úgy vélte, hogy ez egy szükséges lépés a zavar elkerülése érdekében. Ugyanakkor ragaszkodott ahhoz, hogy a probléma messze túlmutat néhány keresésen: az aggasztó az, hogy a mesterséges intelligencia egészségügyi áttekintéseinek felépítése mögött álló logika ugyanazt a hibát más orvosi konzultációk során is előidézheti.
Maga a brit újság is megerősítette ezt a kérdés megfogalmazásának kismértékű megváltoztatásával, olyan kifejezésekre, mint a „májfunkciós tesztek referenciatartományai” vagy az „LFT referenciatartomány”, Automatikus összefoglalók jelentek meg folyamatosanLegalábbis az eset napvilágra kerülését követő első néhány órában. Csak további ellenőrzések után erősítették meg, hogy a Google ezeket a bővített találatokat is eltávolította.
A Google hivatalos válasza és annak korlátai
A kritikára reagálva a Google szóvivője kijelentette, hogy a cég általában nem... Hozzászólás írása a konkrét kifizetésekhez a keresőmotorbanAhelyett, hogy részleteket közölt volna arról, hogy mely konkrét lekérdezéseket módosították, a képviselő egyszerűen kijelentette, hogy a vállalat „széles körű fejlesztéseken” dolgozik, és belső szabályzatait alkalmazza, amikor azt észleli, hogy a mesterséges intelligencia által generált tartalom nem rendelkezik a szükséges kontextussal.
A szóvivő hozzátette, hogy egy belső orvosi szakemberekből álló csapat felülvizsgálta a ... által megjelölt kereséseket. Az őrző és az ő verziója szerint sok esetben Az információ nem volt szigorúan véve pontatlan, és kiváló minőségű weboldalak is alátámasztották.A vita ezért kevésbé arra összpontosít, hogy az adatok hamisak voltak-e, és inkább arra, hogyan mutatták be azokat az egészségügyi képzés nélküli felhasználóknak.
Ez a pontosítás releváns az egészségügyi MI szabályozásáról szóló európai vitában, mivel a következőkre összpontosít: a felelőssége nagy platformok a tartalom kontextualizálása soránA megbízható forrásokra mutató linkek egyszerű megadása nem elegendő, ha az automatizált összefoglaló félreértelmezésekhez vezethet olyan érzékeny témákban, mint a diagnosztikai tesztek vagy a klinikai paraméterek.
A vállalat egyelőre nem tett közzé konkrét nyilvános bejelentéseket Spanyolországra vagy más európai országokra vonatkozóan a mesterséges intelligencia egészségügyi áttekintéseinek további változásaival kapcsolatban. A keresőmotorral kapcsolatos döntéseket azonban jellemzően globálisan alkalmazzák, így... Az európai felhasználók a mesterséges intelligencia funkcióit is érinteni fogják. amikor az Egyesült Királyságban észleltekhez hasonló lekérdezésekkel foglalkozik.
Aggodalom a betegszervezetek és az egészségügyi szakértők részéről
A májfunkciós tesztek konkrét esetén túl számos szervezet ragadta meg a lehetőséget, hogy egy tágabb problémára figyelmeztessen: sok ember nehézségei a világos és megbízható orvosi információkhoz való hozzáférés terén az interneten. Sue Farrington, a szervezet elnöke Betegtájékoztató fórumAz összefoglalók eltávolítását „jó első lépésnek” nevezte, de hangsúlyozta, hogy még mindig túl sok példa van a mesterséges intelligencia által generált helytelen egészségügyi tartalomra.
Ezért ezek a szervezetek arra kérik a Google-t és más nagy technológiai vállalatokat, hogy kötelezzék el magukat amellett, hogy rangsorolja a linkeket egészségügyi alkalmazások és referencia egészségügyi szervezetekpéldául közegészségügyi szolgálatok, egyetemi kórházak vagy elismert betegszervezetek. Azt is követelik, hogy a egyértelműen érzékeny kereséseknél (például rákkal, mentális egészséggel vagy teszteredményekkel kapcsolatban) a mesterséges intelligencia látható figyelmeztetéseket helyezzen el, hogy ösztönözze a felhasználókat egészségügyi szakemberrel való konzultációra.
Farrington megjegyezte, hogy az Egyesült Királyságban, Spanyolországban és más európai országokban felnőttek milliói küzdenek már most is a hagyományos orvosi információk megértésével, még a hivatalos forrásokból származókkal is. Ha ehhez hozzávesszük... egy mesterséges intelligencia réteg, amely árnyalatok nélkül sűríti az összetett tartalmat, a félreértések kockázata még tovább nő.
Hasonlóképpen, olyan technológiai szakértők, mint Victor Tangermann, a szakosított médium főszerkesztője FuturizmusÚgy vélik, hogy az eset egyértelműen bizonyítja, hogy A generatív mesterséges intelligencia rendszerek még nem állnak készen a professzionális orvosi útmutatás helyettesítéséreTangermann rámutat annak szükségességére, hogy egyértelmű korlátokat határozzanak meg arra vonatkozóan, hogy hol és hogyan szabad ezeket az összefoglalókat alkalmazni.
Következmények Európára és a spanyol nyelvű orvosi keresésekre nézve
Bár az eset egy brit médián keresztül került napvilágra, következményei közvetlenül érintik az Európai Uniót, beleértve Spanyolországot is. A mesterséges intelligenciára vonatkozó európai szabályozásokat a ... révén népszerűsítették. AI törvényMár tartalmaz konkrét követelményeket a magas kockázatú rendszerekre, beleértve az egészségügyi szektort is, amelyek befolyásolhatják a Google és más platformok keresési termékeinek strukturálását.
A gyakorlatban Európában emberek milliói használják a Google-t első kapcsolattartó pont egészségügyi kérdésekkelmég mielőtt felhívnák az egészségügyi központjukat vagy az időpontfoglalási szolgáltatásukat. Ez azt jelenti, hogy a megjelenített információkban található bármilyen hiba, bármilyen apró is legyen, potenciálisan befolyásolhatja azt, hogy a felhasználók hogyan értelmezik a tüneteket, a vizsgálatokat vagy a kezeléseket.
Azokban az országokban, ahol állami egészségügyi rendszer működik, mint például Spanyolországban, ahol ösztönzik a szűrővizsgálatokat és a korai diagnózist célzó kampányokat, aggasztó, hogy egyetlen keresési találat is eltántoríthat valakit az orvosi tanácsadástól. időpontot egyeztetni a háziorvosával Ez közvetlenül ellentmondhat a közegészségügyi politikáknak. Ezért számos szakember érdeklődése a keresőmotor iránt egyértelműen azt jelzi, hogy a teszteredmények értelmezését mindig orvosnak kell elvégeznie.
Két- vagy többnyelvű környezetekben, mint például Spanyolország egyes régióiban, további nehézséget jelent, hogy automatikus fordítások és generált összefoglalók Tartsa meg a figyelmeztetéseket, klinikai részleteket és a specifikus referenciatartományokat, amelyek laboratóriumonként vagy országonként eltérőek lehetnek.
Ez az egész vita egy alapvető kérdést vet fel újra: milyen mértékben kellene egy olyan eszközt, mint a Google Keresés, amelyet most generatív mesterséges intelligenciával egészítettek ki, bevonni a komplex klinikai problémák értelmezésébe? Az egészségügyben visszavont MI-áttekintések epizódja azt sugallja, hogy megfelelő kontextus és egy szigorú orvosi felügyeletAz egészségügyi információk mesterséges intelligenciával történő egyszerűsítésére tett minden kísérlet azzal a kockázattal jár, hogy hamis biztonságérzetet kelt, ahol a legkörültekintőbb megoldás továbbra is a szakemberrel való konzultáció.