James Cameron est plutôt pessimiste sur l’avenir de l’humanité. Le réalisateur de Terminator s’est montré particulièrement inquiet du développement de l’intelligence artificielle. En pleine promotion de Ghosts of Hiroshima, un livre sur le bombardement atomique qu’il compte adapter au cinéma, le cinéaste de 70 ans a profité d’un entretien avec Rolling Stone pour exprimer ses craintes quant aux usages militaires de l’IA.
« Je pense qu’il y a encore un danger d’apocalypse à la Terminator si vous associez l’IA aux systèmes d’armement, jusqu’au niveau des systèmes d’armes nucléaires », a confié James Cameron. Le réalisateur pointe du doigt la rapidité des opérations militaires modernes, qui nécessiterait selon lui une « super-intelligence » pour être traitée correctement.
Trois menaces existentielles convergentes
« Peut-être serons-nous assez intelligents pour garder un humain dans la boucle. Mais les humains sont faillibles », a-t-il ajouté.
James Cameron, bien qu’utilisant lui-même l’IA dans son travail, estime que l’humanité fait face à trois défis majeurs en simultané : « Le climat et la dégradation générale du monde naturel dont nous sommes coupables, les armes nucléaires, et la super-intelligence. »
Des menaces qui, pour le cinéaste, « se manifestent et culminent toutes en même temps », rappelant au passage que de nombreuses erreurs humaines ont déjà failli déclencher des conflits nucléaires par le passé, rendant l’automatisation de ces systèmes d’autant plus périlleuse et (...)
À lire aussi :
James Cameron travaille sur un projet secret autour de « Terminator »
Comments