Ny forskning visar att amerikaner använder AI ofta för att få hälsoinformation. I vissa fall har läkare missat att ställa rätt diagnos – men chatbotten lyckats.
Var sjätte vuxen frågar chatbottar om läkarråd
Mest läst i kategorin
När Susan Sheridan, medgrundare av en patientsäkerhetsorganisation, ställde sin luddiga fråga till ChatGPT var hon helt desperat, skriver New York Times.
Höger sida av ansiktet hängde, hon sluddrade och hennes huvud gjorde fruktansvärt ont.
Dagen innan hade läkaren på en akutmottagning bedömt hennes symtom som godartade. Men när Sheridan skrev prompten ”hängande ansikte ansiktssmärta och tandvård” ställde ChatGPT den akuta diagnosen Bells pares.
En annan läkare gav henne steroider och antivirala medel, och hon blev nästan helt återställd.
Falsk tilltro
En av sex vuxna, och cirka en fjärdedel av vuxna under 30 år, använder chattbottar för att få medicinsk hjälp minst en gång i månaden. Det visar en undersökning från KFF, en ideell organisation för hälso- och sjukvårdspolitik.
Benjamin Tolchin, bioetiker och neurolog vid Yale School of Medicine, säger att ChatGPT oftast har rätt – men han trycker också på riskerna.
Problemet är att chatbottarna kan ge felaktig information och svara med en mer auktoritär ton än Google, vilket enligt honom kan ge patienter en falsk tilltro till deras råd.
Utmaningar och fördelar med AI
I KFF-studien svarade mindre än 10 procent av respondenterna att de kände sig ”mycket säkra” på att de kan skilja mellan sann och falsk information från chatbottar.
Inom juridiken innebär det ökade AI-användandet också både stora utvecklingsmöjligheter och komplexa utmaningar, skriver Nordstedts Juridik.
Även kriminella suger snabbt åt sig fördelarna med AI för att manipulera och vilseleda. Polisväsendet planerar att utöka sitt AI-användande, rapporterar Aftonbladet.
Redan idag används det exempelvis för att blixtsnabbt räkna tabletter i ett beslag.
Läs mer:
Jobbsök med AI – inte alltid en bra idé. Realtid
Kina växlar upp inom AI-styrd bilteknik. Realtid