top of page
White Structure

AI Safety México

Una iniciativa en pro del alineamiento y governanza de la IA en México.

Temas principales

agi-seminar-ea.png

AI alignment

Exploramos cómo son los sistemas de IA en general el día de hoy (modelos de fundación) y cómo se podrían llegar a ver en el futuro. 

Investigaremos sobre los problemas fundamentales en el alineamiento tales como la especificación incorrecta y la mala generalización de objetivos, algunos ejemplos y cómo estos pueden llevar a resultados inintencionados o incluso catastróficos.

Mediante el curso de AI safety fundamentals aprendemos diferentes técnicas para prevenir el desalineamiento y las limitaciones de estas técnicas, d investigaciones que intentan comprender los sistemas de Machine Learning a un nivel más profundo, incluyendo interpretabilidad y agentes de fundación.

No olvidamos el papel de la gobernanza como herramienta de regulación y alineamiento.

703814_“A blue artificial neural network as main object, _xl-1024-v1-0.png

Inspirados en ARENA

Únete a las sesiones prácticas basadas en el programa de ARENA

AI Safety in México: a pilot survey in Yucatán

Una encuesta piloto realizada en Yucatán, México, con el objetivo de captar las preocupaciones locales sobre la seguridad de la IA.

Autores: Janeth Valdivia¹,³ | Valeria Ramírez¹ | Silvia Fernández²,³ | Ángel Tenorio³ Alejandro Molina² | Oscar Sánchez¹

1.Universidad Politécnica de Yucatán| 2. Centro de Investigación en Ciencias de Información Geoespacial| 3. AI Safety México Project

bottom of page