ES

Sección de utilidades

Agenda

Fin de la sección de utilidades

Actividades

Comienza el contenido principal

REUNIÓN CIENTÍFICA

Confío en ti, máquina

Ciencias Sociales Workshop 09 y 10 octubre 2025 Madrid

  • Programa

 

Fechas09 y 10 de octubre 2025
Horario: 09 de octubre 2025. De 09 .30 horas a 18.30 horas. 10 de octubre 2025. De 10.00 horas a 13.30 horas.
SedeFundación Ramón Areces, Vitruvio 5, 28006, Madrid 
Idioma: Español
Coste Las clases son gratuitas. Los asistentes deberán cubrir sus gastos de viaje y alojamiento.
Participantes: Las plazas están limitadas a 40  participantes.

*Programa sujeto a cambios

Reunión científica. Confío en ti, máquina

La confianza en las máquinas inteligentes se ha convertido en un factor determinante para su aceptación y uso generalizado. La fiabilidad y seguridad de una máquina siempre fueron factores críticos para su uso, y en los coches podemos ver un buen ejemplo de ello. Pero cuando hablamos de máquinas inteligentes (sean robots, móviles, aplicaciones o dispositivos de cualquier tipo) que interaccionan con personas en el día a día, las cosas no son tan obvias. Cuestiones como su operación predecible, ética, entendible y explicable, son muy importantes y esto nos lleva a nuevos escenarios en lo que se refiere al diseño, fabricación, comercialización o uso de estas máquinas cada vez más inteligentes y presentes en ámbitos tan trascendentes y sensibles como la salud, la educación, la seguridad o las finanzas.

Para lograr esta confianza en las máquinas inteligentes es necesario abordar varios aspectos fundamentales. En primer lugar, la transparencia es clave: las máquinas deben proporcionar explicaciones comprensibles sobre cómo y por qué toman ciertas decisiones. La opacidad en los modelos de Inteligencia Artificial (IA) genera desconfianza y resistencia a su uso. En segundo lugar, la seguridad debe ser prioritaria. Los sistemas inteligentes deben ser resistentes a ciberataques y diseñados para minimizar errores que puedan poner en riesgo a los usuarios. Además, es esencial garantizar la imparcialidad y evitar sesgos en los algoritmos, ya que una IA sesgada puede perpetuar desigualdades y afectar negativamente a ciertos grupos de la sociedad. Finalmente, la regulación y la ética desempeñan un papel crucial en la generación de confianza. Las normativas claras y los marcos éticos garantizan que las máquinas actúen dentro de límites responsables y alineados con el bienestar humano.

Abordar todos estos y otros aspectos requiere de un enfoque multidisciplinar y de un trabajo que sume a los enfoques teóricos y tecnológicos los del derecho, la ética y la economía, entre otros. Esto es lo que buscamos a través de este taller: situar este tema tan trascendente en el foco de atención, realizar las preguntas pertinentes sobre el mismo (¿Qué supone poder confiar en una máquina? ¿De qué depende? ¿Son universales los factores que condicionan la confianza o no en las máquinas? ¿Cómo lograr aumentar la confianza en las máquinas? Etc.) y tratar de construir algunas respuestas y propuestas de investigación colectivamente.

 

 

Programa

 

9 de octubre

09:00 -10:00 h.

Bienvenida

Miguel Jerez - Consejo de Ciencias Sociales de la Fundación Ramón Areces

10:00 -11:30 h.

Sesión 1. Marco Teórico y Conceptual

 

Moderador. Martín Pereira-Fariña (USC). 

  • Fernando Broncano (UC3M). “Entiendo la Confianza en la IA desde la Filosofía”
  •  
  • Helena Matute (Univ. De Deusto). “Entendiendo La Confianza en la IA desde la Psicología Experimental Cognitiva”
  •  
  • Alfredo Marcos (UVA). “IA y Humanismo: Riesgos y Potencialidades que pueden ofrecer los sistemas de IA desde el punto de vista social”

12:00-13:30 h.

Sesión 2. Marco Tecnológico

 

ModeradorJosé M. Alonso-Moral (CiTIUS-USC)

  • Alberto Fernández (CETINIA, URJC): “Una Ontología para Ingeniería guiada por Valores”
  •  
  • Óscar Araque (GSI, UPM): “Construcción y Evaluación de Asistentes basados en Modelos de Lenguaje usando bases de Conocimiento.
  •  
  • José Hernández-Orallo (VRAIN, UPV): “Analizando las Capacidades de los Modelos de Lenguaje”

16:00-17:30 h.

Sesión 3. Marco Ético y Jurídico 

Moderador. Martín Pereira-Fariña (USC). 

  • Gonzalo Génova (UC3M) “Educación en Ética para Ingenieros”
  •  
  • Sara Degli-Esposti (CSIC)  “Confianza desde la Ética Aplicada”
  •  
  • Ricard Josep Martínez Martínez (UV) “Confianza Institucional y Jurídica”

17:30-18:30 h.

Panel de debate

Moderador. Senén Barro (CiTIUS-USC)

  • Helena Matute (Univ. De Deusto)
  •  
  • José Hernández-Orallo (VRAIN, UPV)
  •  
  • Sara Degli-Esposti (CSIC)

 

10 de octubre

10:30-11:30 h.

Sesión 4. Evaluación de Confianza

Moderador. José M. Alonso-Moral (CiTIUS-USC)

  • Atia Cortés Martínez (BSC): “Evaluación de Confianza basada en Cuestionarios”
  •  
  • Jorge Palomar Giner (Galtea): “Uso Seguro y Responsable de la IA Generativa por parte de las empresas, respetando las normativas europeas vigentes”
  •  
  • Lourdes Moreno (UC3M): “¿Cómo la Accesibilidad Cognitiva y ciertos principios de diseño contribuyen a generar Confianza en la IA?”

12:00-13:30 h.

Sesión 5. Caso de Uso: IA y Educación Financiera

Moderador. Isabel Neira (USC)

  •  Fernando de la Calle Silos (Universidad Carlos III de Madrid): “IA en los Mercados de Capitales: Retos y Oportunidades”
  •  
  • Carlos Contreras Gómez (Consejo Asesor Conjunto Instituto Español de Analistas y Fundación): “Impacto de la IA en la Industria Financiera”
  •  
  • Francisco Rodríguez Fernández (UGR, FUNCAS): “Educación Financiera e IA en la Banca”

13:00-14:30 h. 

Conclusiones
 

Senén Barro

Es director del Centro de Investigación en Tecnologías Inteligentes (CiTIUS) de la Universidad de Santiago de Compostela, de la que fue Rector entre 2002 y 2010. Investigador y profesor en Inteligencia Artificial, con más de 300 publicaciones científicas en el campo y otras tantas de divulgación y opinión en medios de comunicación. También ha sido promotor/fundador de dos spin-offs: Situm Technologies e InVerbis Analytics. En 2020 recibió el Premio Nacional de Informática José García Santesmases.

Entre los proyectos más importantes que dirige en la actualidad están: el proyecto Nós, de desarrollo de tecnologías lingüísticas para el gallego; y la Cátedra USC-Plexus de IA aplicada a la Medicina Personalizada de Precisión.

Martín Pereira-Fariña

Es profesor del Departamento de Filosofía y Antropología de la Universidad de Santiago de Compostela (USC), en donde imparte docencia en lógica, argumentación y retórica en los grados de Filosofía e Inteligencia Artificial. Ha desarrollado una amplia trayectoria investigadora, con estancias postdoctorales en el CSIC (Incipit) y en la Universidad de Dundee. Su producción académica incluye publicaciones sobre lógica difusa, explicabilidad en inteligencia artificial y retórica computacional. Participa regularmente en proyectos de investigación financiados por organismos nacionales e internacionales, y forma parte del grupo Episteme. Su enfoque interdisciplinar combina filosofía del lenguaje, lógica formal y ciencia de datos, contribuyendo al desarrollo de sistemas inteligentes con sensibilidad lingüística.

José María Alonso-Mora

Es Ingeniero de Telecomunicaciones por la Universidad Politécnica de Madrid, en la que también obtuvo su título de doctor. Ha realizado diversas visitas postdoctorales en universidades y centros de investigación españoles e internacionales. Entre 2016 y 2018, fue investigador postdoctoral en el Centro Singular de Investigación en Tecnoloxías da Información (CiTIUS) de la Universidad de Santiago de Compostela, a la que posteriormente se incorporó, primero en calidad de investigador Ramón y Cajal y, posteriormente, como Profesor Titular en el Departamento de Electrónica y Computación de USC, e Investigador Vinculado al CiTIUS-USC. Es Presidente de la Asociación Europea de Lógica y Aplicaciones Difusas (EUSFLAT), Coordinador de la Red de Excelencia Nacional de Investigación en IA Fiable (TELSEC4TAI), miembro de numerosas asociaciones académicas y grupos de investigación y autor de más de 190 publicaciones en revistas internacionales, capítulos de libros y congresos, con revisión por pares. Sus principales líneas de investigación incluyen: IA explicable y confiable, inteligencia computacional, sistemas borrosos interpretables y generación de lenguaje natural.

José Hernández Orallo

es catedrático de la Universitat Politécnica de Valencia e investigador principal del Leverhulme Centre for the Future of Intelligence de la Universidad de Cambridge. Obtuvo una licenciatura y un máster en Informática por la UPV, completados en parte en la École Nationale Supérieure de l'Électronique et de ses Applications, y un doctorado en Lógica y Filosofía de la Ciencia por la Universidad de Valencia. Sus actividades académicas y de investigación han abarcado diversas áreas de la inteligencia artificial, el aprendizaje automático, la ciencia de datos y la medición de la inteligencia, centrándose en un análisis más profundo de las capacidades, la generalidad, el progreso, el impacto y los riesgos de la inteligencia artificial. Ha publicado cinco libros y más de doscientos artículos en revistas y ponencias, desde Nature y Science hasta las conferencias principales en inteligencia artificial. Sus investigaciones en el ámbito de la evaluación de la inteligencia artificial han sido cubiertas por varios medios populares, como The Economist, New Scientist o Financial Times. Sigue explorando una visión más integrada de la evaluación de la inteligencia natural y artificial, como reivindica en su libro The Measure of All Minds (Cambridge University Press).

  • Actividades relacionadas
  • Proyectos relacionados
  • Noticias relacionadas
  • Publicaciones relacionadas
  • Tesis relacionadas

ver todos

ver todos

Fin del contenido principal