Realtid

"Så kan man bygga generativ AI utan felaktiga ​​​​resultat"

AI
Mats Stellwall, Principal Architect AI/ML på Snowflake. (Foto: Snowflake)
Realtid.se
Uppdaterad: 04 juli 2024Publicerad: 04 juli 2024

Företag världen över är angelägna om att dra nytta av kraften i generativ AI, men många brottas med frågan om tillförlitlighet: hur bygger man en generativ AI-applikation som ger svar baserad på korrekt information? Den här frågan har gäckat branschen under det senaste året, men det har visat sig att vi kan lära oss mycket av en redan existerande metod, skriver Mats Stellwall, Principal Architect AI/ML Snowflake.

ANNONS
ANNONS

Mest läst i kategorin

Genom att titta på vad sökmotorer gör bra (och vad de gör mindre bra) kan vi lära oss att bygga mer pålitliga generativa AI-lösningar. Detta är viktigt eftersom generativ AI kan leda till stora förbättringar kring effektivitet, produktivitet och kundservice – men bara om företagen kan lita på att deras generativa AI-lösningar tillhandahåller tillförlitlig och korrekt information.

Sökmotorer har länge försökt ge relevanta svar från stora datamängder, och de är starka på vissa områden och svagare på andra. Genom att kombinera styrkorna från sökmotorer med nya tillvägagångssätt för att hitta information som är lämpad för generativ AI vid affärer, kan vi lösa utmaningarna med att lita på informationen.
 
Ett område där sökmotorer fungerar bra är att gå igenom stora mängder information och identifiera de källor som är av högst kvalitet. Genom att till exempel titta på antalet och kvaliteten på länkarna till en webbsida, kan sökmotorer retunera de webbsidor som är sannolikt mest pålitliga. Sökmotorer favoriserar också domäner som är kända för att vara pålitliga, exempelvis myndigheters webbplatser eller etablerade nyhetskällor som Dagens Nyheter. 
 
Generativa AI-applikationer för företagsbruk kan också använda sig av dessa rankningstekniker för att ge mer tillförlitliga resultat. Detta kan de göra genom att prioritera de källor till företagsdata som har använts eller delats mest frekvent. Men de måste också prioritera källor som är kända för att vara pålitliga, exempelvis företagets utbildningsmanualer eller en databas för personalresurser, samtidigt som de undviker mindre pålitliga källor. Detta för att säkerställa kvaliteten i AI-applikationernas resultat. 
 
Många stora språkmodeller, LLM, har tränats på webb-data, som vi alla vet innehåller både pålitlig och opålitlig information. Detta innebär att de kan ta itu med frågor om en mängd olika ämnen, men de har ännu inte utvecklat de mer mogna och sofistikerade metoderna för rangordning som sökmotorer använder för att förfina sina resultat. Detta är en stor anledning till varför många välrenommerade LLM:er kan ge felaktiga svar, speciellt runt data som de inte har tränats på. 
 
En av lärdomarna här är att utvecklare bör betrakta LLM:er som en språklig samtalspartner snarare än en källa till korrekt information. LLM:er är med andra ord duktiga på att förstå språk, mönster och formulera svar, men de ska inte användas som en erkänd kunskapskälla.

För att lösa detta problem tränar många företag sina LLM:er på egna företagsdata i kombination med noga kontrollerade tredjepartsdata, vilket minskar förekomsten av dålig data. Genom att använda sökmotorernas metoder för rangordning och gynna datakällor av hög kvalitet, blir AI-drivna applikationer för företag mycket mer tillförlitliga. 
 
Sökmotorer har också blivit ganska bra på att förstå sammanhang för att lösa tvetydiga frågor. En sökterm som ”Swift” kan till exempel ha flera betydelser – författaren, programmeringsspråket, banksystemet, popstjärnan och så vidare. Sökmotorer tittar på faktorer som geografisk plats och andra termer i sökfrågan för att avgöra användarens avsikt och ge det mest relevanta svaret. Men när en sökmotor inte kan ge rätt svar, eftersom den saknar tillräckligt sammanhang eller för att det inte finns någon sida med svaret, försöker den göra det ändå.  
 
Detta är inte acceptabelt för företagsspecifika generativa AI-applikationer och därför behövs ett lager mellan sökgränssnittet (eller prompten) och LLM:en som ser på de möjliga sammanhangen, och avgör om det kan ge ett korrekt svar eller inte. Om detta lager kommer fram till att det inte kan ge ett svar som med hög sannolikhet är korrekt, måste användaren informeras om detta.

Detta minskar risken för ett felaktigt svar och kan ge användaren möjlighet att ge den generativa AI-applikationen ytterligare instruktioner för att komma fram till ett mer tillförlitligt resultat. Detta lager mellan användargränssnittet och LLM kan också använda sig av en teknik som kallas Retrieval Augmented Generation, eller RAG, för att hämta data från en betrodd källa som finns utanför LLM:en. 
 
Möjligheten att förklara valet av källa för data är ett område där sökmotorer har utmaningar, men det är något som generativa AI-applikationer måste vara tydliga med för att bygga upp ett större förtroende. Genom att också ange var information kommer ifrån, kan användarna bättre bedöma resultatet och varför de ska lita på det. Några av de publikt tillgängliga LLM:erna har börjat tillhandahålla denna transparens och det bör vara en grundläggande del i generativa AI-drivna verktyg som används av företag. 
 
Vi befinner oss på en spännande resa mot en ny generation av applikationer, som kommer att förändra vårt arbete och våra arbetsliv på sätt som vi ännu inte kan fullt förutse. Men för att de ska kunna användas av företag, måste dessa lösningar vara pålitliga och trovärdiga.

Genom att ta det bästa från sökmotorer och kombinera med nya tekniker för att säkerställa bättre noggrannhet, kan vi dra nytta av potentialen med generativ AI för företag. 
 
Mats Stellwall
Principal Architect AI/ML Snowflake

Läs mer:
Techjättarna fostrar Europas ledande AI-startups. Realtid
Här är AI-användarnas stora skräck på jobbet. Realtid
Advokatbyrå går all in på generativ AI. Realtid

Läs mer från Realtid - vårt nyhetsbrev är kostnadsfritt:
ANNONS