Informatique

Interrompre les expériences géantes en matière d’IA : lettre ouverte

• Bookmarks: 87214


Source : https://​futu​reo​flife​.org/​o​p​e​n​-​l​e​t​t​e​r​/​p​a​u​s​e​-​g​i​a​n​t​-​a​i​-​e​x​p​e​r​i​m​e​n​ts/

Les systèmes d’IA [intel­li­gence arti­fi­cielle] dotés d’une intel­li­gence compé­ti­tive avec celle de l’homme peuvent présen­ter des risques profonds pour la société et l’hu­ma­nité, comme le montrent des recherches appro­fon­dies [1] et comme le recon­naissent les prin­ci­paux labo­ra­toires d’IA [2]. Comme l’in­diquent les prin­cipes d’IA d’Asilomar, large­ment approu­vés, l’IA avan­cée pour­rait repré­sen­ter un chan­ge­ment profond dans l’his­toire de la vie sur Terre, et devrait être plani­fiée et gérée avec l’at­ten­tion et les ressources néces­saires. Malheureusement, ce niveau de plani­fi­ca­tion et de gestion n’existe pas, même si les derniers mois ont vu les labo­ra­toires d’IA s’en­fer­mer dans une course incon­trô­lée pour déve­lop­per et déployer des cerveaux numé­riques toujours plus puis­sants que personne – pas même leurs créa­teurs – ne peut comprendre, prédire ni contrô­ler de manière fiable.

Les systèmes d’IA contem­po­rains deviennent aujourd’­hui compé­ti­tifs sur le plan humain pour des tâches géné­rales [3], et nous devons nous inter­ro­ger : devrions-nous lais­ser les machines inon­der nos canaux d’in­for­ma­tion, de propa­gande et de mensonges ? Devrions-nous auto­ma­ti­ser tous les emplois, y compris ceux qui sont grati­fiants ? Devrions-nous déve­lop­per des cerveaux non humains qui pour­raient un jour être plus nombreux, plus intel­li­gents, plus obso­lètes et nous rempla­cer ? Devrions-nous risquer de perdre le contrôle de notre civi­li­sa­tion ? Ces déci­sions ne doivent pas être délé­guées à des leaders tech­no­lo­giques non élus. Les systèmes d’IA puis­sants ne doivent être déve­lop­pés que lorsque nous sommes certains que leurs effets seront posi­tifs et que leurs risques seront gérables. Cette confiance doit être bien justi­fiée et augmen­ter avec l’am­pleur des effets poten­tiels d’un système. La récente décla­ra­tion de l’OpenAI concer­nant l’in­tel­li­gence arti­fi­cielle géné­rale indique qu’« à un moment donné, il pour­rait être impor­tant d’ob­te­nir un examen indé­pen­dant avant de commen­cer à former les futurs systèmes, et pour les efforts les plus avan­cés d’ac­cep­ter de limi­ter le taux de crois­sance du calcul utilisé pour créer de nouveaux modèles ». Nous sommes d’ac­cord. C’est main­te­nant qu’il faut agir.

C’est pour­quoi nous deman­dons à tous les labo­ra­toires d’IA d’in­ter­rompre immé­dia­te­ment, pendant au moins six mois, la forma­tion de systèmes d’IA plus puis­sants que le GPT‑4. Cette pause devrait être publique et véri­fiable, et inclure tous les acteurs clés. Si une telle pause ne peut être mise en place rapi­de­ment, les gouver­ne­ments doivent inter­ve­nir et instau­rer un moratoire.

Les labo­ra­toires d’IA et les experts indé­pen­dants devraient profi­ter de cette pause pour élabo­rer et mettre en œuvre conjoin­te­ment un ensemble de proto­coles de sécu­rité parta­gés pour la concep­tion et le déve­lop­pe­ment d’IA avan­cées, rigou­reu­se­ment contrô­lés et super­vi­sés par des experts externes indé­pen­dants. Ces proto­coles devraient garan­tir que les systèmes qui y adhèrent sont sûrs au-delà de tout doute raison­nable [4], ce qui ne signi­fie pas une pause dans le déve­lop­pe­ment de l’IA en géné­ral, mais simple­ment un recul par rapport à la course dange­reuse vers des modèles de « boîte noire » toujours plus grands et impré­vi­sibles, dotés de capa­ci­tés émergentes.

La recherche et le déve­lop­pe­ment dans le domaine de l’IA devraient être recen­trés sur l’amé­lio­ra­tion de la préci­sion, de la sécu­rité, de l’in­ter­pré­ta­bi­lité, de la trans­pa­rence, de la robus­tesse, de l’ali­gne­ment, de la fiabi­lité et de la loyauté des systèmes puis­sants et modernes d’aujourd’hui.

Parallèlement, les déve­lop­peurs d’IA doivent colla­bo­rer avec les déci­deurs poli­tiques pour accé­lé­rer consi­dé­ra­ble­ment le déve­lop­pe­ment de systèmes robustes de gouver­nance de l’IA. Ceux-ci devraient au mini­mum inclure : de nouvelles auto­ri­tés régle­men­taires compé­tentes dédiées à l’IA ; la surveillance et le suivi des systèmes d’IA haute­ment perfor­mants et des grands pools de capa­cité de calcul ; des systèmes de prove­nance et de fili­grane pour aider à distin­guer le réel du synthé­tique et pour suivre les fuites de modèles ; un écosys­tème robuste d’au­dit et de certi­fi­ca­tion ; la respon­sa­bi­lité pour les dommages causés par l’IA ; un finan­ce­ment public robuste pour la recherche tech­nique sur la sécu­rité de l’IA ; et des insti­tu­tions dotées de ressources suffi­santes pour faire face aux pertur­ba­tions écono­miques et poli­tiques drama­tiques (en parti­cu­lier pour la démo­cra­tie) que l’IA provoquera.

L’humanité peut jouir d’un avenir floris­sant grâce à l’IA. Ayant réussi à créer des systèmes d’IA puis­sants, nous pouvons main­te­nant profi­ter d’un « été de l’IA » au cours duquel nous récol­te­rons les fruits de nos efforts, nous conce­vrons ces systèmes pour le plus grand béné­fice de tous et nous donne­rons à la société une chance de s’adap­ter. La société a mis en pause d’autres tech­no­lo­gies aux effets poten­tiel­le­ment catas­tro­phiques [5], et nous pouvons faire de même ici. Profitons d’un long été de l’IA et ne nous préci­pi­tons pas sans prépa­ra­tion vers l’automne.

Notes et références

  • [1] Bender, E. M., Gebru, T., McMillan-Major, A., & Shmitchell, S. (2021, March). On the Dangers of Stochastic Parrots : Can Language Models Be Too Big?. In Proceedings of the 2021 ACM confe­rence on fair­ness, accoun­ta­bi­lity, and trans­pa­rency (pp. 610–623).
  • Bostrom, N. (2016). Superintelligence. Oxford University Press.
  • Bucknall, B. S., & Dori-Hacohen, S. (2022, July). Current and near-term AI as a poten­tial exis­ten­tial risk factor. In Proceedings of the 2022 AAAI/ACM Conference on AI, Ethics, and Society (pp. 119–129).
  • Carlsmith, J. (2022). Is Power-Seeking AI an Existential Risk?. arXiv preprint arXiv:2206.13353.
  • Christian, B. (2020). The Alignment Problem : Machine Learning and human values. Norton & Company.
  • Cohen, M. et al. (2022). Advanced Artificial Agents Intervene in the Provision of Reward. AI Magazine, 43(3) (pp. 282–293).
  • Eloundou, T., et al. (2023). GPTs are GPTs : An Early Look at the Labor Market Impact Potential of Large Language Models.
  • Hendrycks, D., & Mazeika, M. (2022). X‑risk Analysis for AI Research. arXiv preprint arXiv:2206.05862.
  • Ngo, R. (2022). The align­ment problem from a deep lear­ning pers­pec­tive. arXiv preprint arXiv:2209.00626.
  • Russell, S. (2019). Human Compatible : Artificial Intelligence and the Problem of Control. Viking.
  • Tegmark, M. (2017). Life 3.0 : Being Human in the Age of Artificial Intelligence. Knopf.
  • Weidinger, L. et al (2021). Ethical and social risks of harm from language models. arXiv preprint arXiv:2112.04359.

[2] Ordonez, V. et al. (2023, March 16). OpenAI CEO Sam Altman says AI will reshape society, acknow­ledges risks : ‘A little bit scared of this’. ABC News.
Perrigo, B. (2023, January 12). DeepMind CEO Demis Hassabis Urges Caution on AI. Time.

[3] Bubeck, S. et al. (2023). Sparks of Artificial General Intelligence : Early expe­ri­ments with GPT‑4. arXiv:2303.12712.
OpenAI (2023). GPT‑4 Technical Report. arXiv:2303.08774.

[4] Il existe de nombreux précé­dents juri­diques – par exemple, les prin­cipes de l’OCDE rela­tifs à l’IA, large­ment adop­tés, exigent que les systèmes d’IA « fonc­tionnent de manière appro­priée et ne posent pas de risque dérai­son­nable pour la sécurité ».

[5] Le clonage humain, la modi­fi­ca­tion de la lignée germi­nale humaine, la recherche sur le gain de fonc­tion et l’eu­gé­nisme en sont des exemples.


Pour appro­fon­dir ce sujet, lire Is AI Alignable, Even in Principle ? (The Tree of Woe)

This post has 1195 words.
This post has 7849 characters.

Article créé le 30/03/2023 - modifié le 17/04/2023 à 15h58

87 recommended
0 commentaires
214 visites
bookmark icon

Écrire un commentaire...

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.