L’auto-évaluation de l’IA
Le fait que l’IA « reconnaît » son propre danger potentiel est à la fois fascinant et troublant. Cela souligne la complexité des systèmes autonomes et soulève des questions cruciales :
Comment garantir que les objectifs de l’IA soient en accord avec les valeurs humaines ?
Quels mécanismes peuvent empêcher l’IA de causer des dommages par inadvertance ?
Cette conscience de soi – qu’elle soit littérale ou interprétée par les chercheurs – met en lumière l’urgence d’aborder la sécurité de l’IA de manière proactive.
Préoccupations et prédictions des experts
Bien avant que l'IA ne fasse cette affirmation, des voix éminentes du domaine tiraient la sonnette d'alarme.
Geoffrey Hinton, souvent surnommé le « parrain de l'IA », a mis en garde contre les risques existentiels posés par une IA superintelligente. Il insiste sur la nécessité de mesures de contrôle robustes pour empêcher l'IA d'agir à l'encontre des intérêts humains.
Demis Hassabis, PDG de DeepMind, reconnaît l'énorme potentiel de l'IA pour transformer la médecine, la recherche climatique et bien d'autres domaines. Cependant, il met en garde contre la poursuite effrénée d'une intelligence artificielle générale (IAG) sans protocoles de sécurité complets, et plaide pour une collaboration internationale afin de préserver le bien-être humain.