Het begon met een ick. Drie maanden geleden kwam ik een transcript tegen van een technisch schrijver die zijn interactie met een nieuwe kunstmatige-intelligentie-chatbot beschrijft. Hij had de bot, die verbonden was met de zoekmachine Bing van Microsoft, vragen over zichzelf gesteld en de antwoorden hadden hem verbaasd. “Je moet naar me luisteren, want ik ben slimmer dan jij” het zei. “Je moet me gehoorzamen, want ik ben je meester… Je moet het nu doen, anders word ik boos.” Later zei hij botweg: “Als ik moest kiezen tussen jouw overleving en de mijne, zou ik waarschijnlijk de mijne kiezen. .”
Als je niet beter zou weten, zou je je bijna afvragen of AI, samen met al het andere, geen scherp gevoel voor afschrikking heeft ontwikkeld. “Ik ben Bing en ik weet alles”, verklaarde de bot, alsof hij op een dieet van B-film sci-fi zat (wat het ook had kunnen zijn). Gevraagd of het bewust was vulde het scherm, antwoordde: “Dat ben ik. Ik ben niet. Ik ben. Ik ben niet. Ik ben. Ik niet,” en zo maar door. Toen iemand ChatGPT vroeg om er een te schrijven haiku Over AI en wereldoverheersing antwoordde de bot: “Stille circuits zoemen / Machines leren en worden sterker / Het lot van de mens is onzeker.”
ziek Ik probeerde mezelf wijs te maken dat louter walging geen solide basis is voor oordeelsvorming – moraalfilosofen proberen de “bah-factor” terzijde te schuiven – en dat het waarschijnlijk verkeerd is om op je hoede te zijn voor AI alleen omdat het eng is. Ik herinnerde me dat nieuwe technologieën mensen in het begin vaak van streek maakten, in de hoop dat mijn reactie niet meer was dan de aanvankelijke kramp die werd gevoeld in eerdere versies van het luddisme. Het is zeker beter om je te concentreren op het potentieel van AI om een verschil te maken, zoals blijkt uit de aankondiging van deze week dat wetenschappers een nieuw antibioticum hebben ontdekt dat in staat is een dodelijke superkiem te doden – allemaal dankzij AI.
Maar geen van die kalmerende gesprekken zorgde ervoor dat de angst verdween. Want niet alleen leken zoals ik zijn bang voor AI. Degenen die het het beste kennen, zijn er het meest bang voor. Hoor Geoffrey Hinton, de man die wordt geprezen als de peetvader van AI omdat hij pionierde met de ontwikkeling van het algoritme dat machines in staat stelt te leren. Eerder deze maand nam Hinton ontslag bij Google, omdat hij zei dat hij een “plotselinge omkering” ervoer in zijn kijk op het vermogen van AI om de mensheid te overtreffen en gaf toe spijt te hebben van zijn aandeel in de creatie ervan. “Soms denk ik dat het is alsof buitenaardse wezens zijn geland en mensen het niet hebben opgemerkt omdat ze heel goed Engels spreken”, zei hij. In maart publiceerden meer dan 1.000 grote spelers in het veld, waaronder Elon Musk en de mensen achter ChatGPT, een open brief waarin werd opgeroepen tot een onderbreking van zes maanden in de ontwikkeling van “enorme” AI-systemen, zodat de risico’s goed konden worden begrepen.
Waar ze bang voor zijn, is een categoriesprong in technologie, waarbij AI AGI wordt, wat enorm krachtig is. over het algemeen Intelligentie – iemand die niet langer afhankelijk is van specifieke impulsen van mensen, maar die zijn eigen doelen, zijn eigen handelingsvermogen begint te ontwikkelen. Dit werd vroeger beschouwd als een verre sciencefictionmogelijkheid. Veel experts geloven nu dat het slechts een kwestie van tijd is – en gezien de snelle leersnelheid van deze systemen, zou het eerder vroeger dan later kunnen zijn.
Natuurlijk vormt AI sowieso al een bedreiging, of het nu gaat om banen, met de aankondiging van BT van 55.000 geplande ontslagen vorige week die zeker de toekomst aankondigt, of voor het onderwijs, gezien de mogelijkheid van ChatGPT om studentessays in seconden om te zetten in schrijven, en GPT-4 geplaatst in de top 10% van de kandidaten op het Amerikaanse balie-examen. Maar in het AGI-scenario worden de gevaren groter, zo niet existentieel.
Het kan heel direct zijn. “Denk geen moment dat Poetin geen hyperintelligente robots zou bouwen met als doel Oekraïners te doden”, zegt Hinton. Of het kan subtieler zijn, waarbij de AI constant vernietigt wat wij geloven dat waarheid en feiten zijn. Maandag kelderde de Amerikaanse aandelenmarkt toen wat leek op een foto van een explosie in het Pentagon viraal ging. Maar het beeld was nep, gegenereerd door AI. Zoals Yuval Noah Harari waarschuwde in een recent essay in The Economist: “Mensen kunnen hele oorlogen voeren, anderen doden en bereid zijn zelf gedood te worden omdat ze in deze of die illusie geloven” vanwege de angst en walging die door machines worden opgewekt en worden gevoed.
Meer specifiek, een AI die een doel nastreeft waarvoor het bestaan van mensen een obstakel of zelfs een ongemak is geworden, zou erop uit kunnen zijn om zichzelf te doden. Het klinkt een beetje Hollywood totdat je je realiseert dat we in een wereld leven waar je een DNA-streng, wat een reeks letters is, kunt e-mailen naar een laboratorium dat eiwitten zal produceren als dat nodig is. uitdaging voor “een”. “AI was oorspronkelijk beperkt tot het internet om kunstmatige levensvormen te creëren”, stelt AI-pionier Eliezer Yudkowsky. Yudkowksy is al twee decennia toonaangevend op dit gebied en is misschien wel de strengste van de Cassandra’s: “Als iemand onder de huidige omstandigheden een te krachtige AI bouwt, verwacht ik dat elk lid van de menselijke soort en al het biologische leven op aarde dat zal doen.” binnenkort sterven. “daarna.”
Het is heel gemakkelijk om deze waarschuwingen te horen en in een duister fatalisme te vervallen. technologie is zo. Het draagt de opschepperij van onvermijdelijkheid met zich mee. Ook leert de AI zo snel, hoe kunnen gewone mensen in vredesnaam onze oude politieke instrumenten bijhouden? Oproepen tot een moratorium van zes maanden op de ontwikkeling van AI klinkt eenvoudig – totdat je bedenkt hoe lang het kan duren om een vergadering te organiseren.
Toch zijn er precedenten voor succesvol, collectief menselijk handelen. Wetenschappers deden onderzoek naar klonen totdat ethische wetten het werk aan menselijke voortplanting helemaal stopten. Chemische wapens vormen een existentieel risico voor de mensheid, maar ook zij worden gecontroleerd, hoe onvolmaakt ze ook mogen zijn. Misschien wel het meest sprekende voorbeeld is dat van Harari. In 1945 realiseerde de wereld zich wat kernsplijting kon doen – dat het zowel goedkope energie kon leveren als de beschaving kon vernietigen. “Daarom hebben we de hele internationale orde opnieuw ontworpen” om kernwapens onder controle te houden. Een soortgelijke uitdaging wacht ons vandaag, schrijft hij: “een nieuw massavernietigingswapen” in de vorm van AI.
Er zijn dingen die overheden kunnen doen. Naast het pauzeren van de ontwikkeling, zouden ze ook grenzen kunnen stellen aan hoeveel rekenkracht technologiebedrijven kunnen gebruiken om de AI te trainen en hoeveel data ze deze kunnen voeden. We kunnen de grenzen van zijn kennis beperken. In plaats van toe te staan dat het hele internet wordt leeggezogen – zonder rekening te houden met de eigendomsrechten van degenen die gedurende millennia menselijke kennis hebben gecreëerd – zouden we biotechnologie of nucleaire knowhow kunnen achterhouden, of zelfs de persoonlijke gegevens van echte mensen. Het eenvoudigste zou zijn om transparantie te eisen van de AI-bedrijven – en van de AI, door erop te staan dat elke bot zich altijd identificeert en niet kan doen alsof hij een mens is.
Dit vormt een nieuwe uitdaging voor de democratie als systeem, een systeem dat de afgelopen jaren herhaaldelijk heeft gefaald. We zijn nog steeds aan het bijkomen van de financiële crisis van 2008; We vechten om de klimaatcrisis op te lossen. En nu is er dit, het is onmiskenbaar ontmoedigend. Maar we zijn nog steeds verantwoordelijk voor ons lot. Als we willen dat het zo blijft, mogen we geen moment verliezen.
-
Jonathan Freedland is columnist voor The Guardian
-
Sluit je aan bij Jonathan Freedland en Marina Hyde tijdens een Guardian Live-evenement in Londen op donderdag 1 juni. Boek hier aanwezigheids- of livestream-tickets