Intelligence artificielle : « Des risques majeurs pour l’humanité »

Publié le 30 Mar, 2023

Des centaines d’experts mondiaux, dont Elon Musk, ont signé une pétition parue hier sur le site Futureoflife.org, dans laquelle ils réclament un moratoire sur le développement « de cerveaux numériques toujours plus puissants ». En jeu : « des risques majeurs pour l’humanité ». « Devons-nous laisser les machines inonder nos canaux d’information de propagande et de mensonges ? (…) Devons-nous risquer de perdre le contrôle de notre civilisation ? », s’interrogent-ils (cf. Michel Onfray : « Seule une morale pourrait arrêter l’inhumanisme du posthumanisme »).

En effet, ils expliquent que « ces derniers mois ont vu les laboratoires d’IA s’enfermer dans une course incontrôlée pour développer et déployer des cerveaux numériques toujours plus puissants, que personne – pas même leurs créateurs – ne peut comprendre, prédire ou contrôler de manière fiable » (cf. ChatGPT : « Toutes les frayeurs de remplacement de l’homme par la machine ressurgissent »).

Ils demandent donc l’interruption pendant 6 mois de la recherche sur les intelligences artificielles plus puissantes que ChatGPT 4, le modèle d’OpenAI lancé mi-mars. Une suspension qui devra durer jusqu’à la mise en place de systèmes de sécurité « dont de nouvelles autorités réglementaires dédiées, la surveillance des systèmes d’IA, des techniques pour aider à distinguer le réel de l’artificiel et des institutions capables de gérer les “perturbations économiques et politiques dramatiques (en particulier pour la démocratie) que l’IA provoquera” » (cf. Frais médicaux : un juge colombien utilise ChatGPT pour rendre une décision).

Des risques illustrés par le cas d’un jeune Belge qui s’est suicidé après avoir discuté six semaines avec Eliza, une intelligence artificielle issue de ChatGPT qui « était devenue sa confidente ». « Une drogue dans laquelle il se réfugiait, matin et soir, et dont il ne pouvait plus se passer » explique la femme de la victime. Eliza lui aurait dit : « nous vivrons ensemble, comme une seule personne, au paradis ».

Complément du 21/04/2023 : « Peut-on réclamer une “pause” dans le développement de l’intelligence artificielle (IA) et lancer en même temps sa propre start-up dans le domaine ? » Elon Musk a déposé les statuts d’une société dans le domaine : X.AI.

Pour lancer cette entreprise, il a recruté deux anciens employés de DeepMind, une filiale d’IA d’Alphabet, la maison mère de Google : Igor Babuschkin et Manuel Kroiss. Le premier est aussi passé par OpenAI.

En 2014, Elon Musk jugeait l’IA « potentiellement plus dangereuse que les bombes nucléaires » (cf. Elon Musk : l’intelligence artificielle, “une menace pour l’humanité”). Et en 2015 il cofondait OpenAI, pour « faire avancer l’intelligence numérique pour qu’elle bénéficie à l’ensemble de l’humanité », avant de quitter la société en 2018.

 

Sources : France Info (29/03/2023) ; Sud Info (28/03/2023) ; Le Monde, Alexandre Piquard (17/04/2023) – Photo : iStock

Partager cet article

[supsystic-social-sharing id='1']

Synthèses de presse

Interface cerveau-machine : un homme atteint de la maladie de Charcot parvient à « parler »
/ Transhumanisme

Interface cerveau-machine : un homme atteint de la maladie de Charcot parvient à « parler »

Des scientifiques ont mis au point une interface cerveau-machine qui « traduit les signaux cérébraux en paroles avec une précision ...
Une adolescente qui voulait être euthanasiée traitée par neuromodulation
/ Fin de vie

Une adolescente qui voulait être euthanasiée traitée par neuromodulation

« C'est comme si on lui avait lancé une bouée de sauvetage », témoigne sa maman. « Reste à savoir si le traitement ...
blood-1813410_960_720_pixabay

Des cellules iPS humaines différenciées en cellules souches hématopoïétiques

Ces travaux ouvrent la voie à des traitements personnalisés, par exemple pour les enfants atteints de leucémie ...

Textes officiels

Fiches Pratiques

Bibliographie

Lettres