Nel crescente intreccio tra difesa e intelligenza artificiale, lo scontro sull’AI di Anthropic con il Pentagono mette in luce i limiti etici dell’uso militare di queste tecnologie. Anthrop…
Nel crescente intreccio tra difesa e intelligenza artificiale, lo scontro sull’AI di Anthropic con il Pentagono mette in luce i limiti etici dell’uso militare di queste tecnologie. Anthropic sfida il Pentagono sul contratto da 200 milioni
La startup di intelligenza artificiale Anthropic ha rifiutato di accettare le richieste del Dipartimento della Difesa degli Stati Uniti, mettendo a rischio il suo contratto da 200 milioni di dollari. L’azienda si oppone in effetti alla rimozione di alcune salvaguardie sull’uso dei propri modelli. Nel 2023 il Dipartimento della Difesa ha assegnato contratti fino a 200 milioni anche a OpenAI, Google e xAI. Queste società hanno accettato che i loro modelli siano impiegati per tutti gli scopi leciti all’interno dei sistemi non classificati delle Forze Armate. Anthropic ha firmato il proprio accordo da 200 milioni di dollari con il Pentagono a luglio. in aggiunta risulta essere stato il primo laboratorio a integrare i propri modelli nei flussi operativi di missione su reti classificate, segnando un precedente rilevante per l’uso dell’AI in ambito militare. Le radici del conflitto con il Dipartimento della Difesa
Nonostante la collaborazione iniziale, nelle ultime settimane i rapporti tra la startup e il Pentagono si sono fatti tesi.
Fonte: The Cryptonomist
Articolo elaborato automaticamente dal sistema TechTok Autosummary