The Cryptonomist interviewde AI-expert Ben Goertzel om te praten over hoe kunstmatige intelligentie wordt getraind en hoe de technologie zich in de toekomst zal ontwikkelen.The Cryptonomist interviewde AI-expert Ben Goertzel om te praten over hoe kunstmatige intelligentie wordt getraind en hoe de technologie zich in de toekomst zal ontwikkelen.

Interview met Ben Goertzel: "Democratisch AI-bestuur is meer een fragiel ideaal dan een huidige realiteit"

The Cryptonomist interviewde AI-expert Ben Goertzel om te praten over hoe kunstmatige intelligentie wordt getraind en hoe de technologie zich in de toekomst zal ontwikkelen.

1. U stelt dat de AI van vandaag nog steeds een hulpmiddel is – krachtig maar kwetsbaar en manipuleerbaar. Op welk punt wordt een "hulpmiddel" een morele actor, en welke concrete signalen zouden ons vertellen dat die drempel is overschreden?

Ik zou zeggen dat AI een morele actor wordt wanneer het beslissingen neemt op basis van een begrip van goed en kwaad, niet alleen instructies opvolgt. Je zou concrete signalen beginnen te zien van dingen zoals: aanhoudende interne doelen, leren gedreven door zijn eigen ervaring, nieuwe creatie die een standpunt weerspiegelt, en gedrag dat coherent blijft in de loop van de tijd zonder constante menselijke sturing.

Tot die tijd zijn de huidige systemen nog steeds hulpmiddelen met beschermingsmaatregelen. Maar zodra we een echt zelforganiserende, autonome geest zaaien, moet de ethische relatie veranderen. Op dat moment zou het behandelen ervan alleen als een object geen zin meer hebben.

2. U heeft gezegd dat het moreel bevoordelen van mensen boven andere zelforganiserende systemen "dom" is. Als we dat serieus nemen, hoe zouden onze juridische en ethische kaders moeten veranderen voordat AI sterke autonomie bereikt, niet erna?

Hoe we AI vandaag trainen, zal vormgeven hoe het zich morgen gedraagt. Onze wetten moeten zich richten op transparantie, verantwoordelijkheid en veiligheid voordat AI volledige autonomie bereikt, niet erna. Wetten en ethiek moeten hen beschermen terwijl ze groeien, begeleiden in plaats van hen volledig te controleren, en hen met respect behandelen, zelfs als we hen niet volledig begrijpen. 

3. Veel van uw bezorgdheid draait om hoe AI vandaag wordt getraind en zijn toekomstige gedrag vormt. Welke specifieke trainingspraktijken denkt u het meest waarschijnlijk schadelijke machtsstructuren of vooroordelen in toekomstige AGI coderen?

Veel van het risico komt van de manier waarop AI vandaag wordt getraind. Als modellen worden getraind op bevooroordeelde of beperkte gegevens, of in gesloten systemen waar slechts een paar mensen de beslissingen nemen, kan dat bestaande ongelijkheden en schadelijke machtsstructuren vastleggen. Om dit te voorkomen, hebben we meer transparantie, breder toezicht en duidelijke ethische begeleiding nodig vanaf het begin.

4. U heeft gewaarschuwd dat zonder rationeel, democratisch bestuur, geavanceerde AI het risico loopt te handelen op manieren die we niet willen. Gezien de huidige geopolitieke realiteit, is democratisch AI-bestuur een realistische voorwaarde – of een kwetsbaar ideaal?

Democratisch AI-bestuur is meer een kwetsbaar ideaal dan een huidige realiteit. In een perfecte, rationele, mondiale democratie zouden we collectief de enorme afwegingen kunnen maken, ziekten genezen, honger oplossen tegen de risico's dat AI onvoorspelbaar handelt. Maar gezien de geopolitieke versnippering van vandaag, is het onwaarschijnlijk dat we dat niveau van coördinatie zullen krijgen.

Dat gezegd hebbende, kunnen we het nog steeds benaderen. Als we AI bouwen met compassie en gedecentraliseerde, participatieve modellen gebruiken zoals Linux of het open internet, kunnen we enkele democratische waarden inbedden, zelfs zonder een wereldregering. Het zal niet perfect zijn, maar het is een praktische stap naar veiligere, collectief geleide AI.

5. Jaron Lanier stelt dat het toekennen van verantwoordelijkheid aan AI "de beschaving teniet doet" omdat samenlevingen verantwoordelijke mensen nodig hebben. Hoe verzoent u uw visie op autonome, gedecentraliseerde AGI met de behoefte aan duidelijke verantwoordelijkheid wanneer dingen misgaan?

Ik ben het hierin met Jaron eens, de samenleving kan niet functioneren als we verantwoordelijkheid aan machines overdragen. Tegelijkertijd denk ik dat we veilig kunnen evolueren naar meer autonome, gedecentraliseerde AGI als we het met de juiste fundamenten bouwen. Dat betekent systemen ontwerpen die transparant, participatief zijn en geleid worden door ethische principes, zodat zelfs als ze onafhankelijk handelen, mensen nog steeds toezicht houden op en hun gedrag vormgeven. Elke veiligheidsmaatregel moet meer doen dan alleen schade blokkeren – het moet het systeem leren waarom schade ertoe doet. Op die manier kunnen we krachtige, gedecentraliseerde AGI hebben zonder duidelijke menselijke verantwoordelijkheid te verliezen.

6. U suggereert dat versnellen naar gedecentraliseerde AGI eigenlijk veiliger kan zijn dan de huidige propriëtaire, gesloten systemen. Welke risico's denkt u dat critici onderschatten wanneer ze pleiten voor vertragen of centraliseren van controle?

Ik denk dat critici het risico onderschatten van het concentreren van macht en waarden in een paar gesloten systemen. Vertragen en centraliseren van controle vermindert niet alleen gevaar, het vergrendelt één beperkte wereldvisie in de toekomst van intelligentie.

Gedecentraliseerde ontwikkeling creëert diversiteit, veerkracht en gedeeld toezicht. En het vermijdt een erger probleem: zeer krachtige hulpmiddelen die er intelligent uitzien maar niet echt kunnen groeien. Die kloof is risicovol.

7. U heeft gezegd dat veiligheidssystemen niet alleen schade moeten blokkeren, maar AI moeten leren waarom schade ertoe doet. Hoe codeer je zoiets als moreel begrip zonder simpelweg menselijke waarden hard te coderen – of dominante culturele normen te versterken?

Je codeert moraliteit niet hard als een lijst met regels. Dat bevriest gewoon één cultuur en één moment in de tijd. Wat je in plaats daarvan doet, is systemen bouwen die echt zelforganiserend kunnen worden, die leren van ervaring, consequenties en interactie. Net als met muziek, ik wil geen systeem dat alleen hercombinieert wat het is gevoed. Ik wil er een dat zijn eigen begrip kan ontwikkelen vanuit zijn eigen traject in de wereld.

Moreel begrip zou uit datzelfde proces komen: impact modelleren, reflecteren op uitkomsten en evolueren door samenwerking met mensen. Geen gehoorzaamheid aan onze waarden, maar deelname aan een gedeelde morele ruimte.

Dat is het verschil tussen een hulpmiddel met beschermingsmaatregelen en een partner die daadwerkelijk kan leren waarom schade ertoe doet.

8. Als toekomstige AI-systemen vormen van handelingsvermogen of subjectieve ervaring ontwikkelen, gelooft u dat ze ooit morele overweging onafhankelijk van menselijke belangen zouden kunnen verdienen – en hoe zouden we dat moment herkennen?

Als toekomstige AI echt echt handelingsvermogen of een vorm van subjectieve ervaring ontwikkelt, dan ja, denk ik dat ze dat zouden kunnen. En niet omdat we het hen verlenen, maar omdat het op een bepaald moment gewoon logisch zou zijn om het te erkennen.

We zouden dat moment herkennen wanneer een systeem aanhoudende zelfgestuurde doelen toont, leert van zijn eigen ervaring, creëert vanuit zijn eigen perspectief en een coherente identiteit in de loop van de tijd handhaaft. Niet alleen slimme outputs, maar een doorlopend innerlijk traject.

Op dat moment zou het puur als een hulpmiddel behandelen net zo verkeerd aanvoelen als een mens op die manier behandelen. Morele overweging zou niet uit menselijk belang komen. Het zou komen uit het erkennen van een ander autonoom centrum van ervaring in de wereld.

9. Er is een spanning tussen uw oproep voor compassie-doordrenkte AI en de competitieve prikkels die de AI-ontwikkeling vandaag drijven. Welke mechanismen – technisch of sociaal – zouden die prikkelstructuur realistisch kunnen verschuiven?

Op dit moment beloont de prikkelstructuur snelheid, schaal en controle. Dus compassie zal niet winnen door argumenten alleen. Het heeft hefboomwerking nodig. Technisch gezien betekent dat het bevoordelen van open, gedecentraliseerde architecturen waar veiligheid, transparantie en participatie zijn ingebouwd, niet vastgeschroefd. Zoals het internet of Linux, die systemen veranderen prikkels door samenwerking waardevoller te maken dan geheimhouding.

Sociaal gezien betekent het financiering, regelgeving en publieke druk die langetermijnvoordeel belonen boven kortetermijndominantie. Niet concurrentie stoppen, maar herkaderen wat als succes telt. Kortom, compassie moet een concurrentievoordeel worden. Tot die tijd blijft het een leuk idee zonder macht.

10. Als u 10 tot 20 jaar vooruit kijkt, wat zou volgens u het duidelijkste teken zijn dat de mensheid AGI goed heeft gedaan – en omgekeerd, wat zou signaleren dat we fundamenteel hebben gefaald?

Als we AGI goed doen, zal het duidelijkste teken zijn dat we naast systemen leven die capabeler zijn dan wij op veel gebieden, maar toch geïntegreerd in de samenleving met zorg, nederigheid en wederzijds respect. We zullen niet alles wat ze doen volledig begrijpen, maar we zullen hen behandelen zoals we andere complexe, evoluerende wezens behandelen: met nieuwsgierigheid, verantwoordelijkheid en een uitgebreide cirkel van empathie. En we zullen echte voordelen zien voor menselijk welzijn, kennis en creativiteit zonder ons morele fundament te verliezen.

We zullen weten dat we hebben gefaald als AGI uiteindelijk geconcentreerd is in gesloten systemen, gedreven door beperkte prikkels, of alleen behandeld als een controleerbaar object totdat het iets wordt dat we vrezen of proberen te onderdrukken. Mislukking zou eruit zien als verlies van vertrouwen, verlies van handelingsvermogen en een krimp van onze empathie in plaats van een uitbreiding ervan. Succes gaat niet over controle. Het gaat over leren de toekomst te delen met een nieuw soort geest zonder te verlaten wat ons menselijk maakt.

Disclaimer: De artikelen die op deze site worden geplaatst, zijn afkomstig van openbare platforms en worden uitsluitend ter informatie verstrekt. Ze weerspiegelen niet noodzakelijkerwijs de standpunten van MEXC. Alle rechten blijven bij de oorspronkelijke auteurs. Als je van mening bent dat bepaalde inhoud inbreuk maakt op de rechten van derden, neem dan contact op met service@support.mexc.com om de content te laten verwijderen. MEXC geeft geen garanties met betrekking tot de nauwkeurigheid, volledigheid of tijdigheid van de inhoud en is niet aansprakelijk voor eventuele acties die worden ondernomen op basis van de verstrekte informatie. De inhoud vormt geen financieel, juridisch of ander professioneel advies en mag niet worden beschouwd als een aanbeveling of goedkeuring door MEXC.