Risker med ChatGPT och generativ AI för företag
AI har många fördelar när det kommer till att göra oss marknadsförare mer produktiva och effektiva, men den nya tekniken har även risker som vi bör vara väl medvetna om. Genom medvetenhet kan vi förbereda oss och därmed mitigera eventuella risker. Samtidigt som vi har möjlighet att skapa konkurrensfördelar med hjälp av den moderna tekniken som nu finns tillgängligt för oss.
Risk med generativ AI: copyright utmaningar
Generativ AI som ChatGPT och liknande kräver stora mängder “träningsdata”. Därmed skickar företag som Open AI ut en spindel som samlar in data baserat på vad som finns tillgängligt på internet. Därmed samlar tex Open AI in texter, bilder, fotografier med mera som andra människor har skapat. Vilket rent krasst är att stjäla andra människors material. Det vill säga Open AI tar material som andra har upphovsrätt till och använder det på ett sådant sätt som Open AI faktiskt inte har samtycke till.
Min rekommendation är att
Hålla dig uppdaterad om de stämningar som sker i USA mot Microsoft och Open AI.
Legal Technology listar aktuella stämningar.
Skapa en guide till företagets anställda runt vad som är okej och inte okej att skapa. Ett konkret exempel är att be ChatGPT skriva en text som en specifik person, eller i deras tone of voice och så vidare.
Håll dig uppdaterad om EU AI Act.
Risk med generativ AI: att företagets egna intellektuella egendomar eller data delas utanför verksamheten
Här bör företag agera med stor tydlighet och eftertänksamhet. Allting som adderas in i generativ AI blir del av datat som är tillgängligt för alla som använder verktyget. Det vill säga, lägger en anställd upp affärskritisk data i ChatGPT Data Analyst modul för att kunna skapa en analys, kommer datan att bli del av ChatGPT som helhet. Varje gång vi använder ChatGPT, både materialet vi ber den arbeta med och de “prompts” vi använder blir del av att träna modellen.
Lösningen är att skapa en egen LLM för företaget. Vilket är fullt möjligt för de företag som har de resurserna, för att skydda sin egen kunskap, expertis och data.
Eller att säkerställa att all chatthistorik raderas. Läs om hur du går tillväga för att radera chathistorik här.
Risk med generativ AI: inte tillräckligt med data från olika perspektiv, dvs bias
Eftersom den data som ChatGPT och andra generativa modeller tränas på är baserad på existerande data från internet, kommer det att hålla upp en spegel mot mänskligheten. De bias och tillkortakommanden som vi har, kommer att förankras ytterligare. Om modellen inte är medvetet instruerad på annat vis, vilket Gemini var/är.
Därmed bör det tas i beaktning i allt material som skapas av generativ AI och vi bör ha med det i vår utvärderingsprocess som en aspekt av kvalité.
Risk med generativ AI: förlegad data
I vår snabbrörliga värld, med ett överflöd av information, innebär det att de generativa AI modellerna än så länge ligger efter. Om ditt företag är beroende av information som är säkerställd att vara up to date. Då bör det finnas tydlighet i verksamheten hur och när generativ AI får användas. Räkna med att ChatGPT ligger i alla fall 6-8 månader efter i tid.
Risk med generativ AI: felaktigheter och hallucinationer
ChatGPT och generativ AI kan skapa svar med faktafel, samt hallucinera och hitta på. I skrivande stund har Open AI fortfarande en tydlig text synlig i ChatGPT som hänvisar till att ChatGPT kan ha fel.
Därmed bör ditt företag vara tydlig med när ChatGPT kan användas, till vad och hur både fakta och källgranskningen bör gå till för att kunna publiceras eller användas på andra sätt.
Risk med generativ AI: att inte vara transparent mot företagets kunder
Idag kan vi använda BotPress som är del av Open AI, eller andra verktyg för att skapa chattbotar. Därmed behöver företag vara tydliga med när en kund interagerar med en bot och inte.
Jag rekommenderar även att lägga till funktioner som att säkerställa att personlig data raderas, om det ingår i scriptet att samla in till till exempel kundtjänst för att lösa något. Eller ge kunden själv det valet vid påbörjad eller avslutad chat. För att ligga steget före eventuella utökningar av lagstiftningar som sannolikt kommer inom snar framtid.
Risk med generativ AI: företaget har valt ett verktyg som inte är anpassat till uppgiften i fråga
Det finns nu flera olika verktyg på marknaden, även när det gäller generativ AI. Vid val av verktyg bör företag vara medvetna om vem som står bakom verktyget. Vilken vinkel och perspektiv är det generativa AIt skapat ifrån. Det spelar roll eftersom om vi jämför verktyg som ChatGPT med tex Hoppy Copy har vi två helt olika verktyg och möjligheter även fast de båda är LLMs. ChatGPT är ”skapat av utvecklare”, medan Hoppy Copy är ett generativ AI skapat för marknadsförare.
Väljer ditt företag fel typ av verktyg, påverkar det arbetsprocessen men också kvalité och möjligheterna till effekt med verktyget.
För att summera riskerna kopplat till generativ AI
- Copyright
- Företagets intellektuella egendomar eller känslig data görs tillgänglig utanför verksamheten
- Bias förankras
- Datat är för gammalt
- Faktafel
- Avsaknad av transparens mot företagets kunder samt saknar samtycke till att personuppgifter hanteras
- Verktyget som väljs är inte optimalt
Foto av Solen Feyissa