Kontakta oss
Nimble & co

Vi hjälper företag som vill stärka, utveckla och framtidssäkra sin digitala närvaro och därmed sin verksamhet. Vårt fokus är på företagets digitala närvaro, marknad och försäljning.

open-ai-chat-GPT-o1

Allt du behöver veta om Open AIs nya GPT-o1 modell

Open AI har lanserat två nya modeller till Plus-medlemmar att utforska och testa. GPT-o1 preview och GPT-o1 mini. 

 

GPT-o1 preview ger möjlighet till mer avancerat resonemang, målsättningen med GPT-o1 mini är att den ska vara snabbare på att resonera.

 

 

Vad är syftet bakom GPT-o1?

GPT-o1 ska kunna resonera och lösa problem på ett mer avancerat sätt än tidigare version.


Hur skiljer sig GPTo1 mot föregående modell? 

GPT-o1 tillämpar ytterligare två olika AI-algorithmer. Q-Learning och A* algorithm

 

Q-Learning är en inlärnings-algorithm som innebär att AI:t lär sig vad som är den bästa åtgärden genom “trial and error” på vägen att uppnå ett mål. 

 

A* algorithm är en informerad sökalgorithm, det innebär att dess mål är att identifiera den mest optimala vägen till att uppnå ett resultat, på den kortaste tiden möjligt.



De här två förmågorna i kombination innebär då att Q-Learning gör det möjligt för GPT-o1 att förbättra sitt beslutsfattande genom att lära av feedback över tid, medan A* algorithm hjälper GPT-o1 att planera den mest effektiva vägen till en lösning genom att överväga både nuvarande och framtida möjligheter.

 

Syftet är att att GPTo1 därmed ska planera sitt nästa steg inom ett neuralt nätverk mer effektivt, vilket gör det möjligt för den att strategiskt navigera genom en rad åtgärder vilket ger en ”uppdaterad logik” till den nya modellen.  Därmed kan AI:t iterera fram en förbättring av sina val baserat på inlärd erfarenhet och samtidigt förutse framtida resultat, vilket möjliggör effektivare problemlösning.

 

GPT-o1 tillämpar även Process Reward Models (PRMs), vilket innebär att AI:t får feedback i varje steg i att komma fram till ett slutgiltigt resultat. Inte endast feedback vid det slutgiltiga resultatet. PRMs gör det möjligt för GPT-o1 att få feedback under hela resonemangs-stegen, för att identifiera misstag på vägen. 

 

PRMs ger GPT-o1 belöningar för att korrekt navigera i varje enskilt steg i ett problem, snarare än att bara producera rätt resultat, kan GPT-o1 förbättra sin logik och minimera fel som ofta uppstår i komplexa uppgifter som kräver ett resonemang.  Därmed ska GPT-o1 kunna hantera mer komplexa problem genom att minska sannolikheten för att små fel som bidrar till att det kan bli fel på en större skala. 

 

 

Genom att tillämpa steg-för-steg-resonemang, planering och förstärknings-inlärning gör modellen bättre att navigera genom mer komplexa problem, vilket markerar ett steg framåt i AI:s förmåga att resonera, planera och lösa problem liknande en människa.

 

 

 

Vem är uppdateringen för?

Enligt Open AI själva ska de förbättrade möjligheterna till att resonera vara särskilt användbara för att lösa komplexa problem inom naturvetenskap, mjukvaruutveckling, matematik och liknande områden. För att citera Open AIs pressrelease;  

 

“Till exempel kan o1 användas av forskare för att kommentera cellsekvenseringsdata, av fysiker för att generera komplicerade matematiska formler som behövs för kvantoptik och av utvecklare inom alla områden för att bygga och utföra flerstegsarbetsflöden.”

 

 

 

Vad innebär det för marknadsföraren? 

Eventuellt att vi kan få bättre resultat avseende att skapa strukturer till planer och stöd i strategiskt arbete, eller i processen med att ta fram texter. Det återstår att se och jag kommer rapportera mina egna findings.