Elon Musk et des centaines d’experts réclament une pause dans l’IA, évoquant «des risques majeurs pour l’humanité»

post_thumb_default

Des chercheurs en IA […] appellent à une «prise de recul» dans une «course dangereuse vers des boîtes noires imprévisibles.» Ils visent les IA plus puissantes que ChatGPT-4.

Elon Musk et des centaines d'experts mondiaux de l'intelligence artificielle ont signé mercredi un appel à une pause de six mois dans la recherche sur les IA plus puissantes que ChatGPT 4, le modèle d'OpenAI lancé mi-mars, en évoquant «des risques majeurs pour l'humanité». […]

«Ces derniers mois ont vu les laboratoires d'IA s'enfermer dans une course incontrôlée pour développer et déployer des cerveaux numériques toujours plus puissants, que personne - pas même leurs créateurs - ne peut comprendre, prédire ou contrôler de manière fiable», peut-on lire dans la tribune parue sur le site de la fondation américaine Future of Life. «Les systèmes d'IA puissants ne devraient être développés que lorsque nous sommes certains que leurs effets seront positifs et que leurs risques seront gérables.»

Les signataires réclament donc un moratoire jusqu'à la mise en place de systèmes de sécurité, dont de nouvelles autorités réglementaires dédiées, «la surveillance et le suivi des systèmes d'IA hautement performants», «un financement public robuste pour la recherche technique sur la sécurité de l'IA », «un écosystème robuste d'audit et de certification», des techniques pour aider à distinguer le réel de l'artificiel et des institutions capables de gérer les «perturbations économiques et politiques dramatiques (en particulier pour la démocratie) que l'IA provoquera».

Appel à une régulation

Cet appel «ne signifie pas une pause dans le développement de l'IA en général, mais simplement un recul par rapport à la course dangereuse vers des modèles de boîte noire imprévisibles et toujours plus grands, dotés de capacités émergentes.»

«Devons-nous laisser les machines inonder nos canaux d'information de propagande et de mensonges ? Devrions-nous automatiser tous les emplois, y compris ceux qui sont gratifiants ? Devons-nous développer des esprits non humains qui pourraient un jour être plus nombreux, plus intelligents, plus obsolètes et nous remplacer ? », poursuivent les signataires. «Ces décisions ne doivent pas être déléguées à des leaders technologiques non élus.»

Le patron d'OpenAI (ChatGPT), Sam Altman, a lui-même reconnu être «un petit peu effrayé» par sa création si elle était utilisée pour de «la désinformation à grande échelle ou des cyberattaques». «La société a besoin de temps pour s'adapter», avait-il déclaré à ABCNews mi-mars.

[…] Malik Ghallab, chercheur émérite en robotique et intelligence artificielle au CNRS […] alerte sur le fait que «la technique va plus vite que la science» et que les ingénieurs et chercheurs n'ont plus une maîtrise totale des IA les plus puissantes. «Leurs capacités dépassent ce que nous avions prévu, et leurs concepteurs se retrouvent dans une position dangereuse d'apprentis sorciers, malgré toute leur bonne volonté.» Le chercheur prend l'exemple du secteur de l'aviation, encadré depuis des décennies par des normes strictes de sécurité. «Il y a besoin de pionniers, comme les frères Wright, qui vont prendre des risques. Mais ces risques ne doivent pas toucher l'ensemble de la société.»

Source: https://www.lefigaro.fr/secteur/high-tech/elon-musk-et-des-centaines-d-experts-reclament-une-pause-dans-l-ia-evoquant-des-risques-majeurs-pour-l-humanite-20230329

Voir aussi:

L’IA appelée à remplacer des journalistes chez le groupe allemand Springer

Peut-on vraiment mettre l'intelligence artificielle en pause, comme le demande Elon Musk ?

Un moratoire sur l’intelligence artificielle? «Non, il est beaucoup trop tard»

Après ChatGPT, OpenAI dévoile GPT-4, encore plus performant malgré des limites persistantes

2 commentaires

  1. Posté par aldo le

    Cette importante déclaration laisse penser que l’IA a déjà fait de nombreuses victimes en peu de temps. Pensez seulement au Bitcoin, aux Banques américaines liées au startup et à leur gogo-investisseurs parfaitement intégrés aux idées suicidaires des conseillers écolo-escrologistes en finances durables et liquidation des énergies sales. Et ce ne fut pas par hasard que le Crédit Suisse ferme la marche en dernière ligne comme pare-feu des trois premières victimes fortement implantées aux Etats-Unis. L’IA semble bien mal partie à cause des algorithmes de Google qui influencent les résultats des traitement de données aux extrêmes.

    Donc si des imposteurs gauchisants se lancent à vouloir manipuler les marchés financiers avec leurs idées criminelles, ils ne pourront pas s’extraire du couvercle idéologique qui neutralise le petit pois qui leur sert d’intelligence. Et s’ils sont majoritaires comme lors des votations, alors ce sera la fin du monde dans laquelle ils se plaisent à nous conduire, tout en étant suffisamment bêtes pour croire qu’il y échapperont. Vous vous rappelez il y a quelques mois des traders activistes avaient fait monter les cours d’actions sans valeurs et sans intérêt pour défier l’establishment bancaire et les transactions avaient dû être interrompues arbitrairement. N’est-il pas possible qu’ils aient utilisé l’IA ?

  2. Posté par c.i.a. le

    Il est certains que les films de sci-fi, Colossus: Project Forbin 1967 ou Skynet de Terminator 1987, des super ordinateurs possédants l`arme nucléaire et s`en servent contre l`humanité, peuvent devenirs prophétiques, mais il vaudrait mieux surveiller les hommes, beaucoup plus dangereux, pour l`instant en tout cas.

Et vous, qu'en pensez vous ?

Poster un commentaire

Votre commentaire est susceptible d'être modéré, nous vous prions d'être patients.

* Ces champs sont obligatoires

Avertissement! Seuls les commentaires signés par leurs auteurs sont admis, sauf exceptions demandées auprès des Observateurs.ch pour des raisons personnelles ou professionnelles. Les commentaires sont en principe modérés. Toutefois, étant donné le nombre très considérable et en progression fulgurante des commentaires (259'163 commentaires retenus et 79'280 articles publiés, chiffres au 1 décembre 2020), un travail de modération complet et exhaustif est totalement impensable. Notre site invite, par conséquent, les commentateurs à ne pas transgresser les règles élémentaires en vigueur et à se conformer à la loi afin d’éviter tout recours en justice. Le site n’est pas responsable de propos condamnables par la loi et fournira, en cas de demande et dans la mesure du possible, les éléments nécessaires à l’identification des auteurs faisant l’objet d’une procédure judiciaire. Les commentaires n’engagent que leurs auteurs. Le site se réserve, par ailleurs, le droit de supprimer tout commentaire qu’il repérerait comme anonyme et invite plus généralement les commentateurs à s’en tenir à des propos acceptables et non condamnables.

Entrez les deux mots ci-dessous (séparés par un espace). Si vous n'arrivez pas à lire les mots vous pouvez afficher une nouvelle image.