Realtid

När AI-assistenter skvallrar: "Folk förstår inte"

En kvinna i rosa kofta och långt mörkt hår sitter och jobbar vid en dator,. Bakom henne syns företaget Zoom:s logotyp och slogan i vit text på en stor träpanel.
Under ett videomöte läckte Zoom känslig information som aldrig var tänkt att delas vidare. (Foto: Haven Daley/TT)
Joakim K E Johansson
Joakim K E Johansson
Uppdaterad: 15 okt. 2024Publicerad: 15 okt. 2024

AI-assistenter som används av exempelvis plattformen Zoom har visat sig kunna läcka hemlig information till obehöriga. Något som både kan skada drabbade verksamheter – och hota anställdas trygghet.

ANNONS
ANNONS

Mest läst i kategorin

Artificiell intelligens tar över många arbetsuppgifter som tidigare utfördes av människor – men nu har det visat sig att AI har svårt att förstå när den bör hålla information hemlig.

Bland annat har incidenter uppstått där AI-assistenter som Otter.ai och Zoom läckt känslig information som aldrig var tänkt att delas vidare, skriver Washington Post.

Som exempel nämner tidningen forskningsingenjören Alex Bilzerian. Trots att han hade lämnat ett videomöte om en planerad affär, fick han en komplett transkribering av samtalet – inklusive delar där mötesdeltagarna diskuterade strategiska hemligheter.

Den tekniska fadäsen fick affären att gå i stöpet.

Läs även: Arbetsgivaren övervakar var anställda jobbar. Realtid

Bör ta större ansvar

”AI-teknikens spridning går så snabbt att folk inte hinner förstå hur invasiv den faktiskt är”, säger integritetsforskaren Naomi Brockwell.

Hon menar att AI-driven automatisering i arbetslivet kan få allvarliga konsekvenser, som juridiska tvister och läckor av företagshemligheter.

ANNONS

Vissa experter anser att företagen själva behöver ta större ansvar för hur AI hanteras, särskilt för att minimera risken för att sekretessbelagd information sprids.

Professor Hatim Rahman vid Northwestern University betonar vikten av anpassningar.

”Det måste finnas en medvetenhet om att personer med olika tekniska färdigheter kommer att använda produkterna”, menar Rahman och föreslår att AI-verktyg behöver fler inbyggda säkerhetsmekanismer.

Missa inte: Kritiken mot Open AI växer: ”Fenomenal produkt, rutten kultur”. Realtid

ANNONS

Be om samtycke

Även AI-leverantörer har uppmanat sina användare att vara vaksamma.

Otter.ai påminner sina kunder om att anpassa inställningarna för att undvika automatisk delning av transkriptioner. Bolaget har meddelat att användare ”har full kontroll över delningsinställningarna och kan ändra eller stoppa dem när som helst”.

Enligt Otter rekommenderas det också att användare inhämtar samtycke från alla mötesdeltagare innan inspelning eller delning sker.

ANNONS

Läs även: Tiotusentals använder JP Morgans AI-assistent. Realtid

Läs mer från Realtid - vårt nyhetsbrev är kostnadsfritt:
ANNONS