Google annuncia che non userà l’intelligenza artificiale per costruire armi (e rassicura i dipendenti)
Il CEO di Google ha diffuso un documento per tranquillizzare i dipendenti sui campi di applicazione delle AI che stanno sviluppando
8 Giugno 2018
L’amministratore delegato di Google, Sundar Pichai, ha pubblicato un documento contenente una lunga serie di principi che l’azienda ritiene fondamentali per lo sviluppo dell’intelligenza in cui promette che le AI non verranno utilizzate per la costruzione di armi o per causare danni. Il singolare documento è stato rilasciato per rispondere alle crescenti preoccupazioni dei dipendenti su come l’azienda intenda sfruttare l’enorme vantaggio tecnologico derivante dai progressi nello sviluppo dei software con intelligenza artificiale. Il documento include “sette principi che guideranno il nostro lavoro in futuro” e “progetti di AI che non svilupperemo”. Queste ultime sono:
- Tecnologie che causano o possono causare danni. Dove sussiste un rischio materiale di danno, procederemo solo se riterremo che i benefici superino sostanzialmente i rischi e includano opportuni vincoli di sicurezza.
- Armi o tecnologie il cui scopo principale sia quello di provocare o facilitare danni alle persone.
- Tecnologie che violano le norme raccogliendo o utilizzando informazioni.
- Tecnologie contrarie ai principi dei diritti umani e quelli accettati dal diritto internazionale.
Today we’re sharing our AI principles and practices. How AI is developed and used will have a significant impact on society for many years to come. We feel a deep responsibility to get this right. https://t.co/TCatoYHN2m
— Sundar Pichai (@sundarpichai) 7 giugno 2018