Il semble que chaque semaine, une voix respectée dans le domaine de l’intelligence artificielle (IA) sonne l’alarme sur les dangers imminents de cette technologie. Cette semaine, c’est Eliezer Yudkowsky, théoricien de l’IA et provocateur notoire, qui a pris la parole.
Yudkowsky, connu pour ses appels à “bombarder les centres de données d’apprentissage automatique”, a toujours soutenu ses théories avec une conviction inébranlable. Aujourd’hui, son discours apocalyptique atteint des sommets. Selon lui, l’IA conduira “inévitablement” à la fin de l’humanité.
Yudkowsky est particulièrement préoccupé par l’évolution rapide des grands modèles de langage, tels que ChatGPT. Il considère ces modèles comme une menace significative, capables de “surpasser l’intelligence humaine” et de causer un “dommage irréparable”.
Geoffrey Hinton, le “parrain de l’intelligence artificielle”, a également exprimé ses inquiétudes. Hinton, qui a quitté son poste chez Google pour pouvoir parler librement de la question, estime que l’IA générale pourrait être une réalité dans moins de 20 ans.
Yoshua Bengio, un autre “parrain” de l’IA, partage ces préoccupations. Il craint que son travail ne soit sur le point de déraper, en particulier si des “acteurs malveillants” abusent de l’IA.
Ces voix éminentes ne sont pas les seules à s’inquiéter. De nombreux experts de l’IA partagent ces préoccupations. Ils craignent que l’IA ne soit utilisée à des fins malveillantes, qu’il s’agisse d’acteurs militaires, de terroristes ou de personnes en colère et psychotiques.
Il est évident que la controverse autour de l’IA est loin d’être résolue. Nous pouvons seulement espérer que des actions seront entreprises avant qu’il ne soit trop tard. Comme le dit l’adage, il vaut mieux prévenir que guérir.