← Terug
AI-bedrijf Anthropic weigert onbeperkt militair gebruik van AI door Pentagon

AI-bedrijf Anthropic weigert onbeperkt militair gebruik van AI door Pentagon

Washington D.C. – Het Amerikaanse techbedrijf Anthropic heeft geweigerd het Pentagon onbeperkte toegang te geven tot zijn AI-model Claude voor militair gebruik. Deze weigering heeft geleid tot een conflict met het Amerikaanse ministerie van Defensie, dat Anthropic nu als een "veiligheidsrisico binnen de toeleveringsketen" beschouwt rtl.nl.

Het Pentagon had Anthropic een ultimatum gesteld om voor een bepaalde deadline onbeperkte toegang te verlenen. Defensieminister Pete Hegseth eiste dat het leger de AI van Anthropic "binnen de wet" zou kunnen gebruiken voor alle legale toepassingen vrt.be. Een woordvoerder van het Pentagon benadrukte dat zij geen AI willen inzetten voor massale surveillance van Amerikaanse burgers of voor volledig autonome wapens zonder menselijke controle. Echter, de eis van "onbeperkt" gebruik stuitte op weerstand bij Anthropic.

Dario Amodei, CEO van Anthropic, verklaarde dat het bedrijf niet zal toegeven aan de dreigementen van het Pentagon. Anthropic wil niet dat zijn AI wordt gebruikt voor massale surveillance of autonome wapens, voornamelijk omdat de huidige AI-systemen "simpelweg niet betrouwbaar genoeg" zijn voor situaties waarin mensenlevens op het spel staan . Een bron binnen Anthropic lichtte toe dat het bedrijf het Pentagon niet van slechte intenties beschuldigt, maar eerlijk wil zijn over de veiligheidsrisico's. Onvoorspelbaarheid van AI kan leiden tot onbedoelde gevolgen, zoals 'friendly fire' of mislukte missies.

De weigering van Anthropic heeft geleid tot een verharding van de standpunten. Hegseth heeft het ministerie van Defensie opdracht gegeven om Anthropic aan te merken als een "veiligheidsrisico binnen de toeleveringsketen" . Dit kan betekenen dat bedrijven die zaken doen met het Amerikaanse ministerie van Defensie, geen samenwerkingen meer mogen aangaan met Anthropic. Het Pentagon stelt dat geen enkel bedrijf de overheid kan voorschrijven wat zij met technologie doet.

De discussie over de inzet van AI in militaire context is al langer gaande. Marijn Hoijtink, hoofddocent internationale betrekkingen aan de Universiteit van Antwerpen, ziet de houding van Anthropic als positief. Zij benadrukt dat bedrijven een belangrijke rol spelen in het verantwoord toepassen van technologieën in wapens .

Parallel aan deze discussie over AI-wapens, is er ook aandacht voor de misleidende toepassing van AI in propaganda. Een voorbeeld hiervan is de virtuele influencer Jessica Foster. Dit AI-gegenereerde personage, dat zich voordoet als een Amerikaanse soldaat en prominent Trump-fan, heeft in korte tijd meer dan een miljoen volgers verzameld op Instagram vrt.be. Foster poseert in gegenereerde beelden met wereldleiders en in de Oval Office, en wisselt inconsistent van militaire rang. Critici wijzen erop dat dit soort AI-personages, ondanks hun populariteit, volledig nep zijn en mogelijk worden ingezet om geld te verdienen of invloed uit te oefenen. Dit illustreert de bredere ethische en veiligheidsdilemma's rondom de snelle ontwikkeling en toepassing van kunstmatige intelligentie.

Lees origineel artikel — Nieuws
Waardering
0
Stem mee op dit artikel
Discussie
Nog geen reacties. Wees de eerste!