AI, Pichai: può essere dannosa, servono norme. Da sviluppo impatti su tutto

Condividi

L’ad di Google mette in evidenza il lato più insidioso della nuova tecnologia. E i rischi della competizione per svilupparla

L’intelligenza artificiale può essere “molto dannosa” se usata in modo sbagliato. A dirlo l’amministratore delegato di Google Sundar Pichai, intervistato dalla Cbs, convinto che servano norme simili a “quelle dei trattati usati per regolare l’utilizzo delle armi nucleari”.
Pichai ha osservato come la competizione per far progredire la tecnologia potrebbe far accantonare i timori per la sicurezza.

Rischi per l’informazione

Il manager ha evidenziato come lo sviluppo dell’AI andrà ad impattare su tutti i settori, compresi quelli legati alla conoscenza, come per la scrittura o le attività di progettazione. E ovviamente non sarà risparmiata l’informazione, con il rischio che le fake news, comprese immagini modificate, prolifichino “portando danni”.

Vista la portata, ecco la necessità di dotarsi di normative, rendendo l’AI sicura. Una richiesta che lo avvicina alla lettera aperta firmata sul tema qualche settimana fa da oltre mille esperti del settore tech, tra cui Elon Musk.
Pichai è convinto che la società debba adattarsi rapidamente, con leggi per punire abusi, accordi tra paesi per rendere l’AI sicura, con norme “che si allineano con i valori umani”.
Ma “non spetta a un’azienda decidere”. Ha aggiunto, dicendosi convinto che per lo sviluppo dell’AI servano non solo competenze tecniche ma anche etiche, con “scienziati della società, esperti di etica e filosofi”.

Le intenzioni di Google

Solo qualche settimana fa, parlando con il Wall Street Journal, Pichai aveva parlato delle intenzioni di Google di integrare l’AI nel suo motore di ricerca. Con il vantaggio di poter rispondere alle domande, anche le più complesse, in tempo minore e con un più alto grado di affidabilità.