De munt heeft twee kanten: het AI dilemma

mei 28, 2023

Tijdens het Pinksterweekend had ik wat meer tijd om nog eens naar The A.I. Dilemma, een interessante presentatie van Aza Raskin en Tristan Harris, ja die van The Social Dilemma te kijken.

Ik heb 'm voor de 2e keer gekeken om beter de risico's te vatten van de snelle ontwikkelingen op het gebied van op taalmodellen gebaseerde AI.

De informatie in deze video is te belangrijk om verloren te laten gaan door de waan van de dag.  

Hier een kort overzicht over wat er besproken wordt en wat mij is opgevallen:

Tristan en Aza leggen eerst uit wat verantwoorde uitrol van nieuwe technologie inhoudt (3:16 min)en trekken een parallel met het Oppenheimer Manhattan Project uit 1943, wat leidde tot de ontwikkeling van kernbommen (4:02 min). Vervolgens leggen ze de 3 Regels voor Technologie uit (5.36 min).

Ze laten ook de belangrijkste conclusie zien van het 2022 Expert Survey on Progress in AI:

50% van AI onderzoekers denkt dat er een kans van 10% of meer is dat mensen zullen uitsterven door ons onvermogen om AI te beheersen.

Dit onderzoek is een herhaling van een in 2016 uitgevoerd onderzoek door onderzoeksbureau AI Impact. De resultaten van de schriftelijke enquête, uitgezet onder 4271 AI wetenschappers, laat zien dat de wetenschappers meer bezorgd zijn over de negatieve impact van AI op de mensheid dan in het eerste onderzoek.

De parallel tussen AI en nucleaire technologie vind ik zeer treffend. Nucleaire technlogie kan zichzelf echter niet sterker/beter maken. AI technologie inmiddels wel!

AI is dus erg krachtig. In handen van mensen die continue de juiste keuzes blijven maken kunnen we deze en komende generaties de vruchten plukken van AI-toepassingen. Laten we het echter ongecontroleerd los in de maatschappij, dan kunnen deze vruchten heel zuur worden.

Net zoals social media een aantal zeer ongewenste bijeffecten heeft (7:01 min), zal generatieve Ai die ook hebben). In potentie met nog grotere schade dan Snapchat, Tik-Tok, Facebook en Instagram nu al aanrichten (11:23 min.)

Potentiële boosdoener is Gollem AI (17:08 min). Deze Generatieve Large Language Multi-Modal Modellen kunnen veel meer dan verwacht en kunnen zichzelf versterken (in tegenstelling tot kernwapens). Dit betekent dat potentiële bijeffecten van technologie die zich exponentieel ontwikkelt  groter zullen zijn. Daarnaast zullen er sneller en meer bijeffecten zijn.

Omdat er ook ongelofelijk veel te verdienen valt en de partijen die nu toegang hebben tot veel data, kapitaal en rekenkracht, ook de partijen zijn die versneld meer rijkdom, macht en invloed kunnen vergaren zie je een flinke race ontstaan (44:51 min)

Kunnen we nog wel kiezen hoe onze toekomst eruit ziet? Tristan en Aza gaan in op het belang van onderzoek naar veilige toepassingen van AI, maar ook van gecontroleerd en democratisch (56:18 min) ontwikkelen van AI voordat deze beschikbaar wordt gesteld aan het grote publiek. Een nieuw medicijn wordt immers ook in een aantal fases getest alvorens dit voor iedereen beschikbaar wordt gemaakt. 

Tegelijkertijd willen we niet verliezen van China en/of andere landen (59:48 min). Misschien is dat wel het grootste dilemma.

Ze sluiten af met een call to action (1:02 min)!

Ook wij (inkopend Nederland) moeten in actie komen!

Laten we beginnen met kennis en ervaring opdoen op het gebied van Generatieve AI.

Begin met het opstellen van spelregels waarbinnen mensen veilig kunnen experimenteren met deze toepassingen om productiever en creatiever te worden. 

Hulp nodig? Let me know!

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

https://www.youtube.com/watch?v=xoVJKj8lcNQ