Skip to content

Vrmmp

Virtual Reality e Multimedia

  • Home
  • Redazione
  • Notizie
  • Tech
  • Realtà Virtuale
  • Notizie

OpenAI e il divieto delle parole “militare e bellico”

Mario Lattice Gennaio 15, 2024

OpenAI, una delle aziende leader nel campo dell’intelligenza artificiale, ha recentemente apportato una significativa modifica alle proprie politiche d’uso, sollevando interrogativi e dibattiti riguardo alle applicazioni militari dell’IA. Inizialmente, OpenAI aveva imposto un divieto esplicito all’uso delle sue tecnologie per scopi “militari e bellici“. Tuttavia, questa specifica proibizione è stata rimossa, creando spazio per potenziali usi militari dell’intelligenza artificiale.

Secondo quanto riferito da The Intercept, OpenAI ha aggiornato la sua politica d’uso, rimuovendo la menzione esplicita del divieto di utilizzo delle sue tecnologie per scopi militari e bellici. Questa mossa è stata interpretata come un allentamento della sua posizione contro le collaborazioni militari. La società sostiene che la sua tecnologia non debba essere utilizzata per arrecare danni, sviluppare armi, per la sorveglianza delle comunicazioni o per danneggiare altre persone o proprietà. Tuttavia, sono stati citati casi d’uso legati alla sicurezza nazionale che si allineano alla missione di OpenAI, come la collaborazione con la DARPA per lo sviluppo di nuovi strumenti di cybersecurity per proteggere il software open source su cui si basano infrastrutture critiche e industrie.

La rimozione della frase “militare e bellico” dalla politica d’uso suggerisce che OpenAI è, almeno, aperta a servire clienti militari. La società conferma che la lingua è stata modificata per accogliere clienti e progetti militari approvati dall’azienda. Tuttavia, viene sottolineato che l’uso delle loro tecnologie per sviluppare o utilizzare armi, ferire altre persone o distruggere proprietà, o impegnarsi in attività non autorizzate che violano la sicurezza di qualsiasi servizio o sistema, rimane vietato.

Gli esperti che hanno esaminato i cambiamenti nella politica presso The Intercept hanno suggerito che OpenAI sembra indebolire silenziosamente la sua posizione contro le collaborazioni militari. Hanno indicato che il passaggio da “militare e bellico” a “armi” lascia aperto uno spazio per OpenAI a supportare infrastrutture operative a condizione che l’applicazione non coinvolga direttamente lo sviluppo di armi in senso stretto. Anche se gli strumenti OpenAI non sono direttamente coinvolti in attività violente, potrebbero comunque assistere un’istituzione la cui funzione principale è la letalità.

Il cambiamento di politica di OpenAI ha sollevato preoccupazioni in alcuni settori. Ad esempio, è stato osservato che il linguaggio nella politica rimane vago e pone domande su come OpenAI intende affrontare l’applicazione. L’uso di sistemi IA in operazioni di targeting di civili in aree di conflitto come Gaza è stato citato come un momento notevole per prendere la decisione di rimuovere le parole “militare e bellico” dalla politica d’uso permissibile di OpenAI.

OpenAI, una delle aziende leader nel campo dell’intelligenza artificiale, ha recentemente apportato una significativa modifica alle proprie politiche d’uso, sollevando interrogativi e dibattiti riguardo alle applicazioni militari dell’IA. Inizialmente, OpenAI aveva imposto un divieto esplicito all’uso delle sue tecnologie per scopi “militari e bellici”. Tuttavia, questa specifica proibizione è stata rimossa, creando spazio per potenziali usi militari dell’intelligenza artificiale.

In sintesi, mentre OpenAI mantiene che la sua tecnologia non dovrebbe essere utilizzata per causare danni o sviluppare armi, la rimozione del divieto specifico sull’uso militare e bellico dalla sua politica di utilizzo ha sollevato domande e preoccupazioni. Questo cambiamento apre la porta a potenziali applicazioni militari della tecnologia AI, anche se non direttamente legate allo sviluppo di armi. Il contesto attuale, in cui le agenzie militari globali esprimono un crescente interesse per le tecnologie AI, rende questo cambiamento particolarmente significativo e controverso​​​​​​.

Per maggiori dettagli, puoi consultare le fonti originali:

  • The Intercept
  • TechCrunch
  • Gizmochina

Foto@Pixabay

Mario Lattice
Mario Lattice

Appassionato e sempre entusiasta della tecnologia e di poterla usare. Amo scrivere per raccontare le ultime novità tecnologiche.

Tags: intelligenza artificiale militari

Continue Reading

Previous: Intelligenza Artificiale conferma che le impronte digitali sono uniche
Next: Tutto su Hogwarts Legacy VR

Possono interessarti

Tutti i Servizi Offerti dallo Sportello Virtuale UNIPI Tutti i Servizi Offerti dallo Sportello Virtuale UNIPI
  • Notizie

Tutti i Servizi Offerti dallo Sportello Virtuale UNIPI

Giugno 25, 2025
Problemi con lo Sportello Virtuale UNIPI? Ecco le Soluzioni Più Comuni
  • Notizie

Problemi con lo Sportello Virtuale UNIPI? Ecco le Soluzioni Più Comuni

Giugno 21, 2025
PDND AGID: Ruolo, Obiettivi e Documentazione Ufficiale PDND AGID Ruolo Obiettivi e Documentazione Ufficiale
  • Notizie

PDND AGID: Ruolo, Obiettivi e Documentazione Ufficiale

Giugno 20, 2025

Ultime pubblicazioni

  • Oltre la Creatività: Le Applicazioni dell’Intelligenza Artificiale Non Generativa
  • Le Applicazioni dell’Intelligenza Artificiale Generativa: Rivoluzionare la Creazione e l’Innovazione
  • Come Funziona la Realtà Aumentata (AR)
  • Tutti i Servizi Offerti dallo Sportello Virtuale UNIPI
  • Cosa si può fare con la realtà aumentata
  • Sviluppo di Contenuti VR: Creare Esperienze Immersive per il Futuro Digitale
  • Come Accedere allo Sportello Virtuale UNIPI: Guida Completa per Studenti
  • Problemi con lo Sportello Virtuale UNIPI? Ecco le Soluzioni Più Comuni
  • Stereogrammi e Illusioni Ottiche: Perché il Cervello Ci Inganna?
  • Realtà Aumentata: Come Realizzarla e Quali Strumenti Utilizzare
Copyright © vrmmp.it - All rights reserved. | DarkNews by AF themes.