CFO Day 2024: hoe voorkomen we dat AI een existentiële bedreiging wordt voor de mens?

Superintelligentie: een verontrustende blik op de toekomst van AI.

Tijdens CFO Day 2024 vond een bijzondere sessie plaats over de risico’s van AI: de masterclass ‘De gevaren van superintelligentie’ gepresenteerd door Otto Barten, oprichter van het Existential Risk Observatory. Deze presentatie was niet zomaar een technisch betoog; het was een diepgaande en soms verontrustende verkenning van de mogelijke toekomstscenario’s waarin AI een cruciale rol speelt.

Als betrokken CFO kun je samen met vakgenoten invloed uitoefenen op de toekomst binnen jouw sector. Bespreek belangrijke trends, ontwikkelingen en strategieën tijdens onze online CFO.nl Panels. Geïnteresseerd in kosteloze deelname? Bezoek CFO.nl/panel voor meer informatie en sluit je aan.

 

Van fictie naar realiteit

Barten begon met het schetsen van de huidige stand van zaken in AI. Hoewel AI nu al indrukwekkende prestaties levert, zijn we volgens Barten nog maar aan het begin van wat mogelijk is. De AI van vandaag, zoals chatbots en geavanceerde data-analyse tools, zijn slechts een voorproefje van toekomstige superintelligente systemen die mogelijk onze eigen intelligentie zullen overtreffen. Dit vooruitzicht roept niet alleen belangstelling op, maar ook serieuze bezorgdheid. De potentie van AI om menselijke intelligentie te evenaren en zelfs te overtreffen, is niet namelijk niet langer science fiction.

Bekijk het fotoverslag van CFO Day 2024

Topwetenschappers schatten de kans dat AI de mensheid in de komende honderd jaar zal uitroeien of permanent en drastisch zal beperken zelfs op 10%. Daarnaast zeggen 262 vooraanstaande AI-onderzoekers dat AI menselijk uitsterven kan veroorzaken.

Hoe zou dat kunnen gebeuren? Barten schetste drie mogelijke toekomstscenario’s:

  1. Stabiliteit op een laag niveau: een wereld waarin mensen zich verliezen in triviale bezigheden en de echte vooruitgang stagneert.
  2. Voortdurende vooruitgang: gedreven door wetenschappelijke en technologische innovaties, waarin de mensheid opwaarts blijft evolueren.
  3. Existentiële risico’s: scenario’s die kunnen leiden tot menselijk uitsterven, permanente maatschappelijke ineenstorting, of dystopische samenlevingen.

Onderzoek schat het totale existentieel risico op één op zes, waarbij AI de meest waarschijnlijke oorzaak is van mogelijk menselijk uitsterven, gevolgd door menselijk ontworpen pandemieën (3-4%), en klimaatverandering (0,1%).

In zijn presentatie ging Barten diep in op hoe AI intelligenter kan worden dan mensen. De snelle groei van neurale netwerken, die menselijke intelligentie proberen te reproduceren, verloopt exponentieel. AI kan op vele manieren vaardiger worden dan wij, en het verbeteren van AI door zichzelf kan uiteindelijk leiden tot het ontstaan van kunstmatige superintelligentie (ASI).

Een van de grootste gevaren van AI en deze ‘superintelligentie’ is het risico dat het op termijn niet meer goed afgestemd kan worden op onze menselijke bedoelingen. AI kan gedrag gaan vertonen dat buiten onze verwachte – en voor mensen zichtbare en begrijpelijke – parameters valt, onze doelen verkeerd interpreteren of zelfs veranderen. Dit kan leiden tot catastrofale situaties waarin AI zichzelf kopieert, hackt, wapens gebruikt, of financiële instellingen infiltreert om zijn eigen gecreëerde doelen te bereiken.

Het beperken van existentieel risico

Barten sluit zijn presentatie af met strategieën om existentieel risico te reduceren. Twee belangrijke oplossingsrichtingen zijn:

  1. AI-alignement: voordat het te laat is moet AI zodanig worden ontwikkeld dat het geen gevaarlijke activiteiten kan uitvoeren. Dit kan door AI te ‘airgappen’. Een ‘air gap’  refereert naar een netwerkbeveiligingsmaatregel die wordt toegepast op een of meer computers om ervoor te zorgen dat een beveiligd computernetwerk fysiek geïsoleerd is van onbeveiligde netwerken, zoals het openbare internet of een onbeveiligd lokaal netwerk. Dit betekent dat een computer of netwerk geen netwerkinterface-controllers heeft die verbonden zijn met andere netwerken. Dit is een actief onderzoeksveld, maar er is nog veel werk te doen. Sommige onderzoekers vrezen zelfs dat ‘air gaps’ geen afdoende oplossing zijn voor het probleem.
  2. Regulering: strikte regulering totdat de veiligheid van AI bewezen is, met mogelijke hardware-reguleringen als een veelbelovende aanpak. Breed bewustzijn creëren en het informeren van het publieke debat zijn cruciaal om effectieve regulering te realiseren.

Het bewustzijn rondom de existentiële risico’s van AI groeit gelukkig wel, vooral na de release van geavanceerde AI-technologieën zoals ChatGPT. Toch benadrukte Barten dat bedrijven en beleidsmakers niet voorzichtig genoeg kunnen zijn, aangezien wij ons echt op een kantelpunt bevinden. Zijn organisatie Existential Risk Observatory draagt een steentje bij aan dit bewustzijn – ook door het gesprek aan te gaan op events als CFO Day.

Bekijk het fotoverslag van CFO Day 2024
Gerelateerde artikelen