Plusieurs milliers d’experts de la tech mondiale, Elon Musk et Steve Wozniak, cofondateur d’Elon Musk en tête, ont appelé à une mise en pause des recherches en matière d’IA, après la sortie de ChatGPT 4.0. Nous reproduisons ici la version traduite depuis la source originale en anglais, à l’aide de… ChatGPT 4.0.
L’appel des experts de la tech à la mise en pause de l’IA
Nous appelons tous les laboratoires d'IA à mettre immédiatement en pause, pour au moins 6 mois, la formation de systèmes d'IA plus puissants que GPT-4.
La recherche et le développement en IA devraient être recentrés sur l'amélioration de la précision, de la sécurité, de l'interprétabilité, de la transparence, de la robustesse, de l'alignement, de la confiance et de la loyauté des systèmes puissants et à la pointe de la technologie d'aujourd'hui.
En parallèle, les développeurs d'IA doivent travailler avec les décideurs politiques pour accélérer considérablement le développement de systèmes de gouvernance solides en matière d'IA. Ceux-ci devraient inclure, au minimum : de nouvelles autorités réglementaires compétentes dédiées à l'IA ; la supervision et le suivi des systèmes d'IA hautement performants et des grandes capacités de calcul ; des systèmes de provenance et de marquage pour distinguer le réel du synthétique et suivre les fuites de modèles ; un écosystème solide d'audit et de certification ; la responsabilité en cas de préjudice causé par l'IA ; un financement public solide pour la recherche sur la sécurité technique de l'IA ; et des institutions bien dotées pour faire face aux perturbations économiques et politiques (en particulier pour la démocratie) que l'IA provoquera.
L'humanité peut profiter d'un avenir florissant avec l'IA. Ayant réussi à créer des systèmes d'IA puissants, nous pouvons maintenant profiter d'un "été de l'IA" dans lequel nous récoltons les récompenses, concevons ces systèmes pour le bénéfice évident de tous et donnons à la société une chance de s'adapter. La société a déjà mis en pause d'autres technologies ayant des effets potentiellement catastrophiques sur la société. Nous pouvons le faire ici aussi. Profitons d'un long été de l'IA, plutôt que de nous précipiter sans préparation vers un automne.
Article initialement pûblié sur Future of Life
[1] Bender, E. M., Gebru, T., McMillan-Major, A., & Shmitchell, S. (2021, March). On the Dangers of Stochastic Parrots: Can Language Models Be Too Big?🦜. In Proceedings of the 2021 ACM conference on fairness, accountability, and transparency (pp. 610-623).
Bostrom, N. (2016). Superintelligence. Oxford University Press.
Bucknall, B. S., & Dori-Hacohen, S. (2022, July). Current and near-term AI as a potential existential risk factor. In Proceedings of the 2022 AAAI/ACM Conference on AI, Ethics, and Society (pp. 119-129).
Carlsmith, J. (2022). Is Power-Seeking AI an Existential Risk?. arXiv preprint arXiv:2206.13353.
Christian, B. (2020). The Alignment Problem: Machine Learning and human values. Norton & Company.
Cohen, M. et al. (2022). Advanced Artificial Agents Intervene in the Provision of Reward. AI Magazine, 43(3) (pp. 282-293).
Eloundou, T., et al. (2023). GPTs are GPTs: An Early Look at the Labor Market Impact Potential of Large Language Models.
Hendrycks, D., & Mazeika, M. (2022). X-risk Analysis for AI Research. arXiv preprint arXiv:2206.05862.
Ngo, R. (2022). The alignment problem from a deep learning perspective. arXiv preprint arXiv:2209.00626.
Russell, S. (2019). Human Compatible: Artificial Intelligence and the Problem of Control. Viking.
Tegmark, M. (2017). Life 3.0: Being Human in the Age of Artificial Intelligence. Knopf.
Weidinger, L. et al (2021). Ethical and social risks of harm from language models. arXiv preprint arXiv:2112.04359.
[2] Ordonez, V. et al. (2023, March 16). OpenAI CEO Sam Altman says AI will reshape society, acknowledges risks: 'A little bit scared of this'. ABC News.
Perrigo, B. (2023, January 12). DeepMind CEO Demis Hassabis Urges Caution on AI. Time.
[3] Bubeck, S. et al. (2023). Sparks of Artificial General Intelligence: Early experiments with GPT-4. arXiv:2303.12712.
OpenAI (2023). GPT-4 Technical Report. arXiv:2303.08774.
[4] Ample legal precedent exists – for example, the widely adopted OECD AI Principles require that AI systems "function appropriately and do not pose unreasonable safety risk".
[5] Examples include human cloning, human germline modification, gain-of-function research, and eugenics.