James Cameron est plutôt pessimiste sur l’avenir de l’humanité. Le réalisateur de Terminator s’est montré particulièrement inquiet du développement de l’intelligence artificielle. En pleine promotion de Ghosts of Hiroshima, un livre sur le bombardement atomique qu’il compte adapter au cinéma, le cinéaste de 70 ans a profité d’un entretien avec Rolling Stone pour exprimer ses craintes quant aux usages militaires de l’IA.
« Je pense qu’il y a encore un danger d’apocalypse à la Terminator si vous associez l’IA aux systèmes d’armement, jusqu’au niveau des systèmes d’armes nucléaires », a confié James Cameron. Le réalisateur pointe du doigt la rapidité des opérations militaires modernes, qui nécessiterait selon lui une « super-intelligence » pour être traitée correctement.
« Peut-être serons-nous assez intelligents pour garder un humain dans la boucle. Mais les humains sont faillibles », a-t-il ajouté.
James Cameron, bien qu’utilisant lui-même l’IA dans son travail, estime que l’humanité fait face à trois défis majeurs en simultané : « Le climat et la dégradation générale du monde naturel dont nous sommes coupables, les armes nucléaires, et la super-intelligence. »
Des menaces qui, pour le cinéaste, « se manifestent et culminent toutes en même temps », rappelant au passage que de nombreuses erreurs humaines ont déjà failli déclencher des conflits nucléaires par le passé, rendant l’automatisation de ces systèmes d’autant plus périlleuse et discutable. Mais tout n’est pas perdu puisque, toujours selon James Cameron, l’être humain est doté d’un super-pouvoir qui n’est autre que l’empathie. Eh bien nous voilà rassurés !

Aucun commentaire:
Enregistrer un commentaire