I takt med att artificiell intelligens (AI) och stora språkmodeller (LLM:er) fortsätter att utvecklas, har debatten om deras framtid intensifierats. Vissa förutspår dramatiska förändringar inom bara några månader, medan andra menar att vi nått en platå där mer data och beräkningskraft ger allt mindre utdelning. I den här artikeln ska vi dyka djupare in i dessa perspektiv och undersöka vad de kan innebära för AI:s utveckling och tillämpningar.
Diskussionen om AI:s framtid har blivit alltmer polariserad. På ena sidan finns de som tror att vi står inför en revolution, där AI-system kommer att bli markant smartare inom en mycket snar framtid. På andra sidan finns de som menar att utvecklingen kommer att sakta ner och att vi redan sett de största genombrotten.
En intressant röst i denna debatt kommer från Fume, ett företag som utvecklar AI-baserade kodgenereringsverktyg. Trots att de satsar helhjärtat på LLM-teknologi, baserar de inte sin affärsmodell på antagandet att AI-systemen kommer att bli avsevärt smartare. Istället utgår de från premissen att inferens - processen där AI-modeller genererar svar - kommer att bli i princip gratis och omedelbar.
En av de mest omdebatterade aspekterna av AI-utvecklingen är förbättringen av modellernas resonemangförmåga. Många har hoppats på exponentiella framsteg, men verkligheten tycks visa en annan bild. En ofta citerad graf i AI-kretsar visar hur förbättringen i resonemangförmåga för olika LLM:er har planat ut över tid, särskilt för slutna modeller som GPT-4.
Även om mätmetoderna för resonemangförmåga, som BigCode ELO-poäng, inte är perfekta, speglar de ändå den allmänna upplevelsen hos användare av AI-verktyg som ChatGPT eller Claude. Trots kontinuerliga uppdateringar har dessa verktyg inte blivit dramatiskt bättre över tid på ett sätt som motsvarar tidigare förväntningar.
Detta betyder inte nödvändigtvis att utvecklingen har stannat av helt, men det tyder på att vi kanske inte befinner oss på en exponentiell utvecklingskurva när det gäller AI:s kognitiva förmågor. Det är viktigt att komma ihåg att exponentiella trender är extremt ovanliga i de flesta områden, och AI verkar inte vara ett undantag.
Medan förbättringen i resonemangförmåga kan ha saktat ner, finns det en annan aspekt av AI-utvecklingen som fortfarande visar tecken på exponentiell förändring: kostnaden och hastigheten för inferens.
Sedan de första offentligt tillgängliga GPT-modellerna har kostnaden för att köra dessa modeller minskat dramatiskt. Samtidigt har hastigheten ökat markant. Detta har möjliggjort utvecklingen av mer effektiva och specialiserade modeller som kan matcha prestandan hos tidigare toppmodeller till en bråkdel av kostnaden.
Denna trend mot billigare och snabbare inferens har stora implikationer för hur AI kan användas i praktiken. Det öppnar upp för mer utbredd användning av AI i olika applikationer och gör det möjligt att experimentera med nya användningsområden som tidigare var ekonomiskt ohållbara.
För att förstå begränsningarna och möjligheterna med dagens AI-system är det användbart att titta på John Searles berömda tankeexperiment "Det kinesiska rummet". I detta experiment föreställer vi oss en person som inte förstår kinesiska, instängd i ett rum med instruktioner för hur man manipulerar kinesiska symboler för att svara på frågor. Trots att personen kan ge svar som verkar flytande på kinesiska, förstår de inte språket; de följer bara syntaktiska regler utan att greppa den semantiska innebörden.
Om vi applicerar denna analogi på moderna AI-system och föreställer oss att de kan arbeta med ljusets hastighet, får vi en intressant insikt. Även om AI:n kan processa information otroligt snabbt, kommer den fortfarande att vara begränsad av den kunskap och de mönster som finns i dess "instruktionsbok" - i det här fallet, träningsdata och algoritmer.
Detta perspektiv hjälper oss att förstå både styrkor och begränsningar hos dagens AI-system:
Med denna förståelse av AI:s nuvarande tillstånd och utvecklingstrend, kan vi börja se hur teknologin kan tillämpas mest effektivt:
Medan AI fortsätter att utvecklas i en imponerande takt, är det viktigt att ha en nyanserad och realistisk syn på dess framtid. Även om vi kanske inte ser de dramatiska förbättringar i kognitiv förmåga som vissa förutspått, öppnar den exponentiella minskningen av kostnader och ökningen av hastighet upp för nya och spännande möjligheter.
För företag och utvecklare innebär detta att fokus bör ligga på att optimera användningen av befintlig AI-teknologi snarare än att vänta på nästa stora genombrott. Genom att anta perspektivet att "inferens är gratis och omedelbar", även om det inte är helt sant ännu, kan innovatörer börja utforska nya användningsområden och affärsmodeller som tidigare var otänkbara.
I slutändan kommer AI:s verkliga värde inte nödvändigtvis att ligga i dess förmåga att efterlikna mänsklig intelligens, utan i dess potential att komplettera och förstärka mänskliga förmågor på tidigare omöjliga sätt. Genom att fokusera på praktiska tillämpningar och kontinuerlig optimering kan vi fullt ut utnyttja potentialen i denna transformativa teknologi.
Läs även: Cleantech: 10 Svenska Innovationer som Förändrar Allt