Où
Calvin Lab Auditorium
Prix
Le paysage de l’intelligence artificielle évolue, et il est primordial de garantir la sécurité et l’alignement des modèles de langage (LLM) superintelligents. Cet atelier se penchera sur les fondements théoriques de la sécurité des LLM. Cela pourrait inclure des sujets tels que la vision bayésienne de la sécurité des LLM par rapport à la vision RL de la sécurité ainsi que d’autres théories.
Le sujet de cet atelier est futuriste et se concentre sur la manière de garantir qu’un LLM/AI superintelligent reste sûr et aligné avec les humains. Cet atelier est un effort conjoint du Simons Institute et d’IVADO.
Thèmes principaux :
- Approches bayésiennes de la sécurité des LLM
- Perspectives de l’apprentissage par renforcement sur la sécurité
- Cadres théoriques pour garantir l’alignement de l’IA
- Études de cas et implications pratiques
- Orientations futures de la recherche sur la sécurité des LLM
Cet atelier sera exclusivement en anglais.
L’activité fait partie de la programmation du semestre thématique intitulé « Les grands modèles de langage et les transformeurs » organisé en collaboration avec le Simons Institute for the Theory of computing.
Des bourses de voyage sont disponibles pour assister à l’événement en Californie.
Les ateliers seront aussi disponibles en ligne et en direct (sur inscription seulement).