Des chercheurs en IA […] appellent à une «prise de recul» dans une «course dangereuse vers des boîtes noires imprévisibles.» Ils visent les IA plus puissantes que ChatGPT-4.
Elon Musk et des centaines d'experts mondiaux de l'intelligence artificielle ont signé mercredi un appel à une pause de six mois dans la recherche sur les IA plus puissantes que ChatGPT 4, le modèle d'OpenAI lancé mi-mars, en évoquant «des risques majeurs pour l'humanité». […]
«Ces derniers mois ont vu les laboratoires d'IA s'enfermer dans une course incontrôlée pour développer et déployer des cerveaux numériques toujours plus puissants, que personne - pas même leurs créateurs - ne peut comprendre, prédire ou contrôler de manière fiable», peut-on lire dans la tribune parue sur le site de la fondation américaine Future of Life. «Les systèmes d'IA puissants ne devraient être développés que lorsque nous sommes certains que leurs effets seront positifs et que leurs risques seront gérables.»
Les signataires réclament donc un moratoire jusqu'à la mise en place de systèmes de sécurité, dont de nouvelles autorités réglementaires dédiées, «la surveillance et le suivi des systèmes d'IA hautement performants», «un financement public robuste pour la recherche technique sur la sécurité de l'IA », «un écosystème robuste d'audit et de certification», des techniques pour aider à distinguer le réel de l'artificiel et des institutions capables de gérer les «perturbations économiques et politiques dramatiques (en particulier pour la démocratie) que l'IA provoquera».
Appel à une régulation
Cet appel «ne signifie pas une pause dans le développement de l'IA en général, mais simplement un recul par rapport à la course dangereuse vers des modèles de boîte noire imprévisibles et toujours plus grands, dotés de capacités émergentes.»
«Devons-nous laisser les machines inonder nos canaux d'information de propagande et de mensonges ? Devrions-nous automatiser tous les emplois, y compris ceux qui sont gratifiants ? Devons-nous développer des esprits non humains qui pourraient un jour être plus nombreux, plus intelligents, plus obsolètes et nous remplacer ? », poursuivent les signataires. «Ces décisions ne doivent pas être déléguées à des leaders technologiques non élus.»
Le patron d'OpenAI (ChatGPT), Sam Altman, a lui-même reconnu être «un petit peu effrayé» par sa création si elle était utilisée pour de «la désinformation à grande échelle ou des cyberattaques». «La société a besoin de temps pour s'adapter», avait-il déclaré à ABCNews mi-mars.
[…] Malik Ghallab, chercheur émérite en robotique et intelligence artificielle au CNRS […] alerte sur le fait que «la technique va plus vite que la science» et que les ingénieurs et chercheurs n'ont plus une maîtrise totale des IA les plus puissantes. «Leurs capacités dépassent ce que nous avions prévu, et leurs concepteurs se retrouvent dans une position dangereuse d'apprentis sorciers, malgré toute leur bonne volonté.» Le chercheur prend l'exemple du secteur de l'aviation, encadré depuis des décennies par des normes strictes de sécurité. «Il y a besoin de pionniers, comme les frères Wright, qui vont prendre des risques. Mais ces risques ne doivent pas toucher l'ensemble de la société.»
Voir aussi:
L’IA appelée à remplacer des journalistes chez le groupe allemand Springer
Peut-on vraiment mettre l'intelligence artificielle en pause, comme le demande Elon Musk ?
Un moratoire sur l’intelligence artificielle? «Non, il est beaucoup trop tard»
Après ChatGPT, OpenAI dévoile GPT-4, encore plus performant malgré des limites persistantes
Cette importante déclaration laisse penser que l’IA a déjà fait de nombreuses victimes en peu de temps. Pensez seulement au Bitcoin, aux Banques américaines liées au startup et à leur gogo-investisseurs parfaitement intégrés aux idées suicidaires des conseillers écolo-escrologistes en finances durables et liquidation des énergies sales. Et ce ne fut pas par hasard que le Crédit Suisse ferme la marche en dernière ligne comme pare-feu des trois premières victimes fortement implantées aux Etats-Unis. L’IA semble bien mal partie à cause des algorithmes de Google qui influencent les résultats des traitement de données aux extrêmes.
Donc si des imposteurs gauchisants se lancent à vouloir manipuler les marchés financiers avec leurs idées criminelles, ils ne pourront pas s’extraire du couvercle idéologique qui neutralise le petit pois qui leur sert d’intelligence. Et s’ils sont majoritaires comme lors des votations, alors ce sera la fin du monde dans laquelle ils se plaisent à nous conduire, tout en étant suffisamment bêtes pour croire qu’il y échapperont. Vous vous rappelez il y a quelques mois des traders activistes avaient fait monter les cours d’actions sans valeurs et sans intérêt pour défier l’establishment bancaire et les transactions avaient dû être interrompues arbitrairement. N’est-il pas possible qu’ils aient utilisé l’IA ?
Il est certains que les films de sci-fi, Colossus: Project Forbin 1967 ou Skynet de Terminator 1987, des super ordinateurs possédants l`arme nucléaire et s`en servent contre l`humanité, peuvent devenirs prophétiques, mais il vaudrait mieux surveiller les hommes, beaucoup plus dangereux, pour l`instant en tout cas.