Le pionnier de l’intelligence artificielle, Geoffrey Hinton, affirme qu’il est de plus en plus difficile de distinguer les vidéos, les voix et les images générées par la technologie des éléments réels, mais il a une idée pour aider dans la bataille.
Cette lutte accrue a contribué à un changement dans la façon dont l’informaticien anglo-canadien et récent lauréat du prix Nobel pense que le monde pourrait lutter contre les faux contenus.
“Pendant un moment, j’ai pensé que nous pourrions peut-être qualifier les choses de générées par l’IA”, a déclaré Hinton lundi lors des premières conférences Hinton.
“Je pense qu’il est plus plausible maintenant de pouvoir reconnaître que les choses sont réelles en y prenant un code et en allant sur certains sites Web et en voyant les mêmes choses sur ce site Web.”
Hinton a pris la parole lors de la première des deux soirées de conférences Hinton au Global Risk Institute, qui ont lieu cette semaine au John WH Bassett Theatre de Toronto.
Hinton, qui est souvent appelé le parrain de l’IA, est monté brièvement sur scène pour rappeler au public la litanie des risques contre lesquels il a mis en garde le public et que pose la technologie. Il estime que l’IA pourrait provoquer ou contribuer à des catastrophes accidentelles, au chômage, à la cybercriminalité, à la discrimination et à des menaces biologiques et existentielles.
Il a déclaré que l’approche d’étiquetage permettrait de vérifier que le contenu n’est pas faux et imagine que cela pourrait être particulièrement utile lorsqu’il s’agit de publicités vidéo politiques.
“Vous pourriez avoir quelque chose comme un code QR (vous amenant) vers un site Web, et s’il y a une vidéo identique sur ce site Web, tout ce que vous avez à faire est de savoir que ce site Web est réel”, a expliqué Hinton.
La plupart des Canadiens ont repéré des deepfakes en ligne et près d’un quart d’entre eux en sont confrontés chaque semaine, selon une enquête menée en avril auprès de 2 501 Canadiens par le Dais, un organisme de politique publique de l’Université métropolitaine de Toronto.
Les deepfakes sont des images ou des vidéos manipulées numériquement illustrant des scènes qui ne se sont pas produites. Des deepfakes récents ont représenté le pape François dans une doudoune Balenciaga et la pop star Taylor Swift dans des poses sexuellement explicites.
Lors d’une conférence de presse après l’événement, Hinton a partagé davantage sur ce qu’il a fait avec sa moitié des 1,45 millions de dollars que lui et le chercheur de l’Université de Princeton, John Hopfield, ont reçu lorsqu’ils ont remporté le prix Nobel de physique plus tôt dans le mois.
Hinton a déclaré qu’il avait fait don de la moitié de sa part du prix à Water First, une organisation de Creemore, en Ontario, qui forme les communautés autochtones à développer et à fournir un accès à des systèmes d’eau potable.
Il a d’abord envisagé de donner une partie de l’argent à une organisation de l’eau dans laquelle l’acteur Matt Damon est impliqué en Afrique, mais il a ensuite déclaré que son partenaire lui avait demandé : “Et le Canada ?”
Cela a amené Hinton à découvrir Water First. Il a déclaré qu’il était obligé de faire un don en raison des reconnaissances de terres qu’il entend au début de nombreux événements.
“Je pense que c’est formidable qu’ils reconnaissent (qui a vécu sur cette terre en premier), mais cela n’empêche pas les enfants autochtones d’avoir la diarrhée”, a-t-il déclaré.
Hinton a précédemment déclaré qu’une partie de ses gains serait également reversée à une organisation qui fournit des emplois à de jeunes adultes neurodiversifiés.
« Pessimiste inquiet »
La majeure partie de la soirée, même lundi, a été consacrée à une conférence de Jacob Steinhardt, professeur adjoint de génie électrique, d’informatique et de statistiques à l’UC Berkeley en Californie.
Steinhardt a déclaré au public qu’il pensait que l’IA progresserait encore plus vite que beaucoup ne le pensent, mais qu’il y aurait des surprises en cours de route.
D’ici 2030, il imagine que l’IA sera « surhumaine » en matière de mathématiques, de programmation et de hacking.
Il pense également que les grands modèles linguistiques, qui sous-tendent les systèmes d’IA, pourraient devenir capables de persuasion ou de manipulation.
“Il y a une marge de manœuvre importante si quelqu’un essayait de les former à la persuasion, peut-être soit une entreprise sans scrupules, soit un gouvernement soucieux de persuader ses citoyens”, a déclaré Steinhardt. “Il y a beaucoup de choses que tu pourrais faire.”
Il a déclaré à l’auditoire qu’il se considérait comme un « optimiste inquiet », qui estime qu’il y a 10 % de chances que la technologie conduise à l’extinction de l’humanité et 50 % de chances qu’elle génère une immense valeur économique et une « prospérité radicale ».
Interrogé lors d’une conférence de presse ultérieure sur l’étiquette d'”optimiste inquiet” de Steinhardt, Hinton s’est qualifié de “pessimiste inquiet”.
“Des recherches montrent que si vous demandez aux gens d’estimer les risques, les personnes normales et en bonne santé sous-estiment largement les risques de choses vraiment mauvaises… et les personnes qui comprennent correctement les risques sont les légèrement déprimés”, a déclaré Hinton.
“Je me considère comme faisant partie de ceux-là, et je pense que les risques sont un peu plus élevés que ce que pense Jacob (Steinhardt), disons environ 20 pour cent.”