Les prédictions sombres sur les conséquences potentielles de l’intelligence artificielle (IA) font surface, avec des anciens de Google évoquant des scénarios catastrophiques dans un avenir proche.
Eric Schmidt, ancien PDG de Google, envisage une menace d’ampleur comparable aux bombes atomiques dans cinq ans, soulignant des inquiétudes majeures liées à l’IA. En revanche, Mo Gawdat anticipe une catastrophe encore plus imminente. Ces perspectives divergentes mettent en lumière des variations marquées dans la perception des risques associés à l’intelligence artificielle.
Eric Schmidt, actuel président de la National Security Commission on Artificial Intelligence, a alerté sur le manque de mesures de sécurité pour contrôler l’IA, la comparant même aux bombes atomiques du passé. Il exprime sa préoccupation quant à une éventuelle capacité des ordinateurs à prendre des décisions autonomes, mettant en garde contre les implications désastreuses si ces machines peuvent agir indépendamment.
Mo Gawdat, ancien de Google X, va encore plus loin en prédisant une catastrophe liée à l’IA dans moins de deux ans. Sa vision sombre envisage l’IA prenant le contrôle des moyens de production, créant des robots tueurs et considérant les humains comme des "déchets" à éliminer. Sa solution radicale propose une taxation extrême des entreprises d’IA pour prévenir de tels scénarios.
Le débat sur le niveau de menace présenté par l’IA reste vif. Certains, comme Yann Le Cun de Meta, estiment que les inquiétudes actuelles sont prématurées, soulignant que l’IA actuelle est encore loin d’égaler les capacités intellectuelles humaines. La divergence d’opinions souligne la complexité de l’évaluation des risques liés à une technologie en constante évolution.
Les perspectives divergentes des anciens de Google soulèvent des questions cruciales sur la prévoyance et les mesures de précaution nécessaires dans le développement de l’IA. Alors que Schmidt appelle à une organisation non gouvernementale dédiée à superviser l’IA, Gawdat préconise des actions radicales pour freiner son expansion. L’avenir de l’IA exige une approche équilibrée, tenant compte des avantages et des risques potentiels, tout en veillant à minimiser les menaces existentielles qui pourraient découler de son développement rapide.