The Alignment Project - AI-system utvecklas och används på ett säkert, tillförlitligt och samhällsnyttigt sätt 2025
Bidragsgivare AI Security Institute
Område: Digitalisering, automatisering, tech & AI | Försvar, säkerhet, rymden | International verksamhet | Trygghet, kris & säkerhet |
Beskrivning
Sammanfattning av vad utlysningen handlar om: The Alignment Project är en internationell satsning på 15 miljoner pund som finansierar forskning för att säkerställa att avancerade AI-system utvecklas och används på ett säkert, tillförlitligt och samhällsnyttigt sätt. Bidrag på upp till 1 miljon pund ges till projekt som adresserar risker med felriktade AI-system.
Syfte med utlysningen: Att accelerera forskningen inom AI-alignment för att förebygga och hantera säkerhets- och riskproblem med kraftfulla AI-system, och säkerställa att dessa förblir under mänsklig kontroll.
Mål för utlysningen: Att stödja innovativa och tvärvetenskapliga forskningsinsatser som utvecklar metoder och strategier för att hindra AI från att agera skadligt samt designa AI som inte försöker utföra riskfyllda handlingar.
Förväntad effekt/resultat: Nya vetenskapliga insikter och praktiska lösningar som bidrar till säkrare AI-utveckling, ökad förståelse för riskhantering och förbättrad samverkan mellan forskare, industri och beslutsfattare.
Finansieringsgrad: Vanligtvis 50 000–1 000 000 pund per projekt; möjlighet till större belopp i vissa fall.
Vem som kan söka: Forskare vid akademiska institutioner, ideella organisationer och kommersiella aktörer (underkastade due diligence).
Eventuella krav på konsortium: Samarbete över discipliner och sektorer uppmuntras; projekt kan inkludera flera partners och nyckelpersoner.
Tillgänglig finansiering (budget): Totalt 15 miljoner pund i fonden; upp till 1 miljon pund per projekt.