OpenAI:s vd Sam Altman meddelade nyligen att företaget samarbetar med det amerikanska AI-säkerhetsinstitutet för att ge dem tidig tillgång till OpenAI:s nästa stora AI-modell för säkerhetstestning. Detta är ett betydelsefullt steg som visar OpenAI:s engagemang för AI-säkerhet, men som också väcker frågor om företagets inflytande över policyskapande kring AI.
OpenAI har under det senaste året fått kritik för att ha nedprioriterat arbetet med AI-säkerhet till förmån för utveckling av mer kraftfulla AI-modeller. I maj 2024 upplöstes en enhet inom OpenAI som arbetade med att utveckla kontroller för att förhindra att "superintelligenta" AI-system skulle gå bärsärkagång. Detta ledde till att två ledande forskare lämnade företaget, inklusive medgrundaren Ilya Sutskever.
Som svar på kritiken lovade OpenAI att avsätta 20% av sin beräkningskraft till säkerhetsforskning och att skapa en säkerhetskommission. Företaget har också ingått liknande överenskommelser om tidig tillgång för säkerhetstestning med brittiska myndigheter.
Enligt Altmans meddelande på X kommer OpenAI att ge det amerikanska AI-säkerhetsinstitutet tidig tillgång till företagets nästa stora generativa AI-modell för säkerhetstestning. Institutet är en federal myndighet som syftar till att bedöma och hantera risker med AI-plattformar.
Detta ger institutet möjlighet att granska och testa modellen innan den släpps offentligt, för att identifiera potentiella säkerhetsrisker eller problem. Det kan ses som ett steg mot ökad transparens och samarbete kring AI-säkerhet från OpenAI:s sida.
Samtidigt väcker överenskommelsen frågor om OpenAI:s inflytande över policyskapande och reglering av AI. Företaget har nyligen uttryckt sitt stöd för ett lagförslag som skulle ge AI-säkerhetsinstitutet utökade befogenheter. OpenAI har också kraftigt ökat sina utgifter för federal lobbying det senaste året.
Detta har lett till farhågor om att OpenAI försöker utöva inflytande över hur AI regleras i USA. Kritiker menar att det finns en risk för så kallad "regulatory capture", där företag får för stort inflytande över de myndigheter som ska reglera dem.
För den breda allmänheten kan överenskommelsen ses som ett positivt tecken på att ledande AI-företag samarbetar med myndigheter kring säkerhetsfrågor. Det kan potentiellt leda till säkrare AI-system som lanseras med bättre förståelse för eventuella risker.
Samtidigt är det viktigt att vara medveten om de komplexa maktförhållanden och intressen som finns inom AI-industrin. Medan samarbete mellan företag och myndigheter kan vara produktivt, behövs också oberoende granskning och översyn för att säkerställa att AI utvecklas på ett sätt som gynnar hela samhället.
Utvecklingen av kraftfulla AI-system kommer att fortsätta ställa nya etiska och säkerhetsmässiga utmaningar. Några centrala frågor för framtiden är:
OpenAI:s överenskommelse med AI-säkerhetsinstitutet är ett steg på vägen, men många utmaningar kvarstår. Det kommer krävas fortsatt debatt och samarbete mellan forskare, företag, myndigheter och civilsamhället för att navigera den snabba AI-utvecklingen på ett ansvarsfullt sätt.
Läs även: AI revolutionerar gymnastikbedömning
Läs även: AI revolutionerar gymnastikbedömning