När Google slutar peka och börjar påstå

Publicerad:

Det här är en opinionstext, åsikterna är skribentens egna.

Problemet är bara att sammanfattningarna ofta innehåller fel. Ofta är de ”nästan rätt” och just därför svårare att genomskåda.

kvinna med sned lugg och orange tröja tittar in i kameran

I årtionden har vi lärt oss att ”googla” när vi vill veta något. Inte för att Google gav oss de rätta svaren, utan för att sökresultaten gav en väg framåt: länkar, källor, alternativ.

Resten var upp till oss. Att läsa, jämföra, värdera.

Nu håller det på att förändras.

Googles AI-sammanfattningar placerar numera ett färdigt svar överst i sökresultaten.

Ett självsäkert, välformulerat stycke som ser ut att veta exakt vad det talar om. Problemet är bara att sammanfattningarna ofta innehåller fel. Ofta är de ”nästan rätt” och just därför svårare att genomskåda.

Webben är full med exempel på ”Google AI summaries gone wrong”, det ena lustigare än det andra. Men även lokalt kan det bli galet.

Då jag googlade ”Vem är mest känd i Pargas?” såg AI-sammanfattningen vid första anblicken trovärdig ut: politiker, kulturpersonligheter och historiska namn med koppling till orten.

För den som känner till KAJ är felet uppenbart. För alla andra är det osynligt. Och just där ligger problemet: AI-modellen producerar ett svar som låter rimligt, men som bygger på statistik och sannolikhet – inte lokal kunskap.

Men sist i listan dök musikgruppen KAJ upp. Jag tror inte Vöråborna skulle gilla om Pargas började göra anspråk på humortrion.

För den som känner till KAJ är felet uppenbart. För alla andra är det osynligt. Och just där ligger problemet: AI-modellen producerar ett svar som låter rimligt, men som bygger på statistik och sannolikhet – inte lokal kunskap.

Det här är mer än ett exempel på att AI kan göra fel.

Det visar hur Google har gått från att vara ett verktyg för informationssökning till att bli en aktör som presenterar påstådda fakta. Från ”här är vad andra har skrivit” till ”så här är det”.

När svaren presenteras med auktoritet minskar både viljan och möjligheten att kontrollera källorna, särskilt när källorna knappt syns.

För små språk och lokala kontexter blir det här extra problematiskt.

Studier pekar på att en stor del av mediernas trafik från sökmotorer riskerar att försvinna, i vissa uppskattningar upp till hälften inom tre år.

När finlandssvenska förhållanden blandas ihop med rikssvenska eller när vård- och samhällsinformation tappar det lokala, blir konsekvenserna större än irriterande faktafel. Då handlar det om förtroende och trygghet.

Samtidigt väcker sökmotorernas AI-sammanfattningar oro i mediebranschen.

Studier pekar på att en stor del av mediernas trafik från sökmotorer riskerar att försvinna, i vissa uppskattningar upp till hälften inom tre år.

EU-rapporten ”Search engines in times of Artificial Intelligence” konstaterar att många sökningar redan i dag avslutas utan att användaren klickar på en enda länk.

Det är egentligen inte så märkligt: när svaret redan står överst klickar vi inte vidare.

Men AI-sammanfattningarna uppstår inte ur tomma intet. De bygger ofta på journalistik som någon annan har producerat, faktagranskat och tagit ansvar för.

När klicken uteblir försvinner intäkterna, vilket kan leda till försvagad journalistik. Det som återstår är fler sammanfattningar, som ligger ännu längre bort från källorna.

Sökmotorer har länge förknippats med idén om att information blir bättre när vi får tillgång till många perspektiv.

Med AI-sammanfattningarna riskerar företagen i stället att ge sig själva tolkningsföreträde.

Vi behöver inte nödvändigtvis mindre AI. Men vi behöver AI-verktyg som visar osäkerhet, redovisar källor och lämnar utrymme för människans eget omdöme.

EU varnar också för att det här kan leda till att vi användare blir allt mer beroende av AI-genererade svar, samtidigt som det kritiska tänkandet riskerar att försvagas.

Vi behöver inte nödvändigtvis mindre AI. Men vi behöver AI-verktyg som visar osäkerhet, redovisar källor och lämnar utrymme för människans eget omdöme.

Mitt råd till tonåringarna hemma är att aldrig tro på sammanfattningarna utan alltid kolla minst en källa. Samma råd ger jag gärna också er.

Om Googles AI-modell inte vet var KAJ hör hemma, borde vi vara försiktiga med att låta den sammanfatta hur världen ser ut.

Här kan du läsa fler kolumner av Linda Mannila.

Företagare och forskare i gränslandet mellan människa och teknik
Publicerad: