Intelligence artificielle : « Des risques majeurs pour l’humanité »

Publié le 30 Mar, 2023

Des centaines d’experts mondiaux, dont Elon Musk, ont signé une pétition parue hier sur le site Futureoflife.org, dans laquelle ils réclament un moratoire sur le développement « de cerveaux numériques toujours plus puissants ». En jeu : « des risques majeurs pour l’humanité ». « Devons-nous laisser les machines inonder nos canaux d’information de propagande et de mensonges ? (…) Devons-nous risquer de perdre le contrôle de notre civilisation ? », s’interrogent-ils (cf. Michel Onfray : « Seule une morale pourrait arrêter l’inhumanisme du posthumanisme »).

En effet, ils expliquent que « ces derniers mois ont vu les laboratoires d’IA s’enfermer dans une course incontrôlée pour développer et déployer des cerveaux numériques toujours plus puissants, que personne – pas même leurs créateurs – ne peut comprendre, prédire ou contrôler de manière fiable » (cf. ChatGPT : « Toutes les frayeurs de remplacement de l’homme par la machine ressurgissent »).

Ils demandent donc l’interruption pendant 6 mois de la recherche sur les intelligences artificielles plus puissantes que ChatGPT 4, le modèle d’OpenAI lancé mi-mars. Une suspension qui devra durer jusqu’à la mise en place de systèmes de sécurité « dont de nouvelles autorités réglementaires dédiées, la surveillance des systèmes d’IA, des techniques pour aider à distinguer le réel de l’artificiel et des institutions capables de gérer les “perturbations économiques et politiques dramatiques (en particulier pour la démocratie) que l’IA provoquera” » (cf. Frais médicaux : un juge colombien utilise ChatGPT pour rendre une décision).

Des risques illustrés par le cas d’un jeune Belge qui s’est suicidé après avoir discuté six semaines avec Eliza, une intelligence artificielle issue de ChatGPT qui « était devenue sa confidente ». « Une drogue dans laquelle il se réfugiait, matin et soir, et dont il ne pouvait plus se passer » explique la femme de la victime. Eliza lui aurait dit : « nous vivrons ensemble, comme une seule personne, au paradis ».

Complément du 21/04/2023 : « Peut-on réclamer une “pause” dans le développement de l’intelligence artificielle (IA) et lancer en même temps sa propre start-up dans le domaine ? » Elon Musk a déposé les statuts d’une société dans le domaine : X.AI.

Pour lancer cette entreprise, il a recruté deux anciens employés de DeepMind, une filiale d’IA d’Alphabet, la maison mère de Google : Igor Babuschkin et Manuel Kroiss. Le premier est aussi passé par OpenAI.

En 2014, Elon Musk jugeait l’IA « potentiellement plus dangereuse que les bombes nucléaires » (cf. Elon Musk : l’intelligence artificielle, “une menace pour l’humanité”). Et en 2015 il cofondait OpenAI, pour « faire avancer l’intelligence numérique pour qu’elle bénéficie à l’ensemble de l’humanité », avant de quitter la société en 2018.

 

Sources : France Info (29/03/2023) ; Sud Info (28/03/2023) ; Le Monde, Alexandre Piquard (17/04/2023) – Photo : iStock

Partager cet article

Synthèses de presse

Caroline du nord : une décision de justice en matière d’IVG s’aligne sur la FDA
/ IVG-IMG

Caroline du nord : une décision de justice en matière d’IVG s’aligne sur la FDA

En Caroline du nord, un juge fédéral a annulé le fait d’exiger que la mifépristone ne soit prescrite que par ...
PMA : légère augmentation du risque de leucémie
/ PMA-GPA

PMA : légère augmentation du risque de leucémie

Des scientifiques de l’Inserm ont constaté « une légère augmentation du risque de leucémie » chez les enfants conçus par PMA ...
IVG : le Danemark allonge les délais de 12 à 18 semaines
/ IVG-IMG

IVG : le Danemark allonge les délais de 12 à 18 semaines

Lundi, le Gouvernement danois a annoncé avoir conclu un accord avec quatre autres partis afin d’allonger le délai d’avortement de ...

Textes officiels

Fiches Pratiques

Bibliographie

Lettres