Negen problemen van generatieve AI in één diagram

Francis
6 Min Read

In het snel voortschrijdende domein van kunstmatige intelligentie laten generatieve AI-tools een opmerkelijk potentieel zien. Niettemin valt het toenemende bewustzijn van hun potentieel voor schade niet te ontkennen.

In VERSES hebben we problemen met generatieve AI-tools geïllustreerd die gebruik maken van gegevens uit diverse bronnen. Deze zorgen vallen voornamelijk in drie categorieën: kwaliteitscontrole en nauwkeurigheid van gegevens, ethische overwegingen en technische uitdagingen, die vaak een bepaald niveau van onderlinge verbondenheid vertonen.

 Krediet: VERZEN

1) Bias In, … Bias Uit

Thema: Kwaliteitscontrole & Nauwkeurigheid

Een belangrijke uitdaging binnen generatieve AI draait om de neiging om vooroordelen die inherent zijn aan de trainingsgegevens te repliceren. In plaats van vooroordelen te verzachten, versterken of bestendigen deze instrumenten deze vaak, waardoor twijfel ontstaat over de nauwkeurigheid van hun toepassingen – wat mogelijk kan resulteren in diepere ethische dilemma’s.

2) Het Black Box-probleem

Thema: Ethische en juridische overwegingen

Een ander belangrijk obstakel bij het omarmen van generatieve AI is het gebrek aan transparantie in de besluitvormingsprocessen. Met denkprocessen die vaak niet interpreteerbaar zijn, worden deze AI-systemen geconfronteerd met uitdagingen bij het uitleggen van hun beslissingen, vooral wanneer er fouten optreden in kritieke zaken.

Het is vermeldenswaard dat dit een breder probleem is bij alle generatieve AI-systemen en niet alleen bij generatieve tools.

3) Duur om te bouwen en te onderhouden

Thema: Complexiteit en technische hindernissen

Aan het trainen van generatieve AI-modellen, zoals het grote taalmodel (LLM) ChatGPT, hangt een exorbitant prijskaartje, dat vaak in de miljoenen dollars kan lopen vanwege de substantiële eisen aan rekenkracht en infrastructuur. Ter illustratie heeft Sam Altman, voormalig CEO van OpenAI, geverifieerd dat de trainingskosten voor ChatGPT-4 maar liefst $100 miljoen bedroegen.

4) Geesteloos papegaaien

Thema: Kwaliteitscontrole & Precisie

Hoewel ze over geavanceerde mogelijkheden beschikken, worden generatieve AI’s beperkt door de gegevens en patronen waarop ze zijn getraind. Deze beperking komt tot uiting in resultaten die mogelijk niet volledig de diepte van de menselijke kennis omvatten of effectief een spectrum van diverse scenario’s aanpakken.

Het is ook bekend dat AI-modellen het onvermogen bezitten om grappen te gebruiken in andere dan een dwaze en niet-grappige poppenkast. (Grok, de chatbot van xAI op X, brengt daar verandering in).

5) (Mis) afstemming op menselijke waarden

Thema: Ethische en juridische overwegingen

In tegenstelling tot mensen missen generatieve AI’s het vermogen om de gevolgen van hun daden te overdenken in overeenstemming met menselijke waarden.

Hoewel voorbeelden als de onschadelijke, door AI gegenereerde ‘Balenciaga Pope’ misschien onschuldig lijken, is het van cruciaal belang om te erkennen dat deepfakes kunnen worden gebruikt voor kwaadaardiger doeleinden, zoals het verspreiden van valse informatie tijdens crises op het gebied van de volksgezondheid.

Dit onderstreept de noodzaak van aanvullende kaders om de werking van deze systemen binnen ethische grenzen te garanderen.

6) Hongerige macht

Thema: Complexiteit en technische hindernissen

De gevolgen voor het milieu van generatieve AI zijn onmogelijk te negeren. Aangezien verwerkingseenheden aanzienlijk stroom verbruiken, kunnen modellen als ChatGPT kosten maken die gelijk staan ​​aan het voeden van 33.000 Amerikaanse huishoudens, en kan een enkele aanvraag 10 tot 100 keer energie-intensiever zijn dan het verzenden van één e-mail.

7) Hallucinaties

Thema: Kwaliteitscontrole & Nauwkeurigheid

Generatieve AI-modellen hebben de neiging valse verklaringen of beelden te genereren wanneer ze worden geconfronteerd met lacunes in de gegevens, wat aanleiding geeft tot zorgen over de nauwkeurigheid van hun output en de mogelijke gevolgen ervan.

Ter illustratie: in een promotievideo voor Google Bard beweerde de chatbot ten onrechte dat de James Webb-ruimtetelescoop de eerste beelden had gemaakt van een planeet buiten het zonnestelsel van de aarde.

8) Inbreuk op auteursrecht en intellectuele eigendom

Thema: Ethische en juridische overwegingen

De ethische omgang met data staat centraal, vooral omdat talloze generatieve AI-tools op onrechtmatige wijze auteursrechtelijk beschermd werk incorporeren zonder toestemming te verkrijgen, krediet te verstrekken of artiesten en makers te compenseren, en daarmee inbreuk maken op hun rechten.

OpenAI heeft onlangs een compensatieprogramma geïmplementeerd met de naam Copyright Shield. Dit initiatief dekt de juridische kosten in verband met rechtszaken wegens inbreuk op het auteursrecht voor specifieke klantniveaus, waarbij voor deze aanpak wordt gekozen in plaats van het verwijderen van auteursrechtelijk beschermd materiaal uit de trainingsdataset van ChatGPT.

9) Statische informatie

Thema: Complexiteit en technische hindernissen

Het in stand houden van de actualiteit van generatieve AI-modellen vergt aanzienlijke rekenkracht en tijd, wat een enorme technische uitdaging vormt. Niettemin zijn bepaalde modellen gestructureerd om incrementele updates mogelijk te maken, waardoor een mogelijke oplossing voor dit ingewikkelde probleem wordt gepresenteerd.

Ondanks de grote overlap tussen deze probleemgebieden zijn deze gebieden stuk voor stuk belangrijk en moeten we in gedachten houden bij het reguleren en voorkomen van een soort existentieel scenario voor de mensheid.

Share This Article
Leave a comment

Leave a Reply

Your email address will not be published. Required fields are marked *