Disputa Pentagonului întărește reputația Anthropic, dar ridică întrebări despre pregătirea AI în militar
Anthropic, cunoscută pentru poziția sa morală în utilizarea tehnologiilor de inteligență artificială de către armata americană, a câștigat teren în fața competitorilor, în timp ce dezvăluie preocupări legate de eficiența acestor tehnologii în context militar. Conform apnews.com, chatbotul Claude al Anthropic a depășit pentru prima dată ChatGPT în descărcările de aplicații în SUA, evidențiind creșterea interesului consumatorilor.
👉 Conflictul dintre Anthropic și Pentagon privind limitările etice ale AI
Anthropic își consolidează reputația în urma unui conflict cu Pentagonul, în care Dario Amodei, CEO și co-fondator, a refuzat să renunțe la măsurile etice ale companiei, care limitează aplicarea tehnologiei sale în arme autonome și supraveghere în masă. Administrația Trump a interzis utilizarea chatbotului Claude de către agențiile guvernamentale, considerându-l un risc pentru lanțul de aprovizionare. Anthropic a anunțat că va contesta penalitățile în instanță, provocând reacții mixte din partea experților în domeniul militar și drepturilor omului.
👉 Critici privind fiabilitatea AI în aplicarea militară
Missy Cummings, fost pilot de vânătoare în Marina Americană, a criticat marketingul din industrie care a dus la aplicarea tehnologiilor AI în sarcini de mare risc. Cummings a subliniat că modelele de limbaj mari, care stau la baza chatboturilor ca Claude, sunt „inherently unreliable” (“în mod inerent nesigure”) și pot produce erori semnificative. Ea a declarat: „Nu știu dacă armata înțelege cu adevărat limitările.”
Amodei a insistat asupra acestor limitări, afirmând că „sistemele AI de frontieră pur și simplu nu sunt suficient de fiabile pentru a alimenta arme complet autonome.” Anthropic, până de curând, a fost singura companie din acest sector care avea aprobată utilizarea în sisteme militare clasificate.
Președintele Trump a declarat că Pentagonul va avea la dispoziție șase luni pentru a elimina aplicațiile militare ale Anthropic. Cummings a sugerat că există posibilitatea ca Claude să fi fost deja utilizat în planificarea atacurilor militare. „Trebuie să existe oameni care să supravegheze aceste tehnologii”, a spus ea.
👉 Reacții publice și evoluția reputației companiilor AI
Problemele guvernamentale cu care se confruntă Anthropic au fost etichetate de un comentator pe rețele sociale ca „Taxă pe Hype” – un mesaj care a fost repostat de David Sacks, consilierul principal pentru AI al lui Trump. Deși aceste conflicte legale ar putea amenința parteneriatele Anthropic cu alți contractori militari, compania a reușit să își întărească reputația ca dezvoltator de AI atent la siguranță.
Conform cercetărilor de piață, interesul consumatorilor pentru Claude a dus la creșterea drastică a descărcărilor, făcând aplicația cea mai populară pe iPhone și în toate sistemele de telefonie din SUA. În contrast, reputația ChatGPT, care a anunțat un parteneriat cu Pentagonul pentru a înlocui Anthropic în medii clasificate, a avut de suferit, numărul recenziilor de o stea crescând cu 775%.
Sam Altman, CEO al OpenAI, a recunoscut greșelile de comunicare și a subliniat complexitatea problemelor legate de tehnologie, promițând o colaborare mai atentă cu Pentagonul în viitor.