• Menu
  • Skip to right header navigation
  • Skip to main content
  • Skip to secondary navigation
  • Skip to primary sidebar
  • Skip to footer

Before Header

Más información  ptedisruptive@apte.org

PTE Disruptive

Plataforma tecnológica española de tecnologías disruptivas (DISRUPTIVE)

  • DISRUPTIVE
    • Plan de trabajo
    • Asambleas
    • What is Disruptive?
  • MIEMBROS
  • CONOCIMIENTO
    • Webinars
    • APTEFORMA | Aula de formación gratuita en tecnologías disruptivas
    • Grupos de trabajo
    • Prospectiva
  • LIDERAZGO
    • Tablero del emprendedor
    • Collaboration Marketplace
    • Ayudas I+D+i
    • Casos de uso
    • Encuentros B2B
    • Registro de Entidades Innovadoras de la Red Privada de Blockchain de APTE – PTE DISRUPTIVE
  • TALENTO
    • Demanda de perfiles profesionales
    • Retos
    • Digital Skills
    • Elevator pitches
    • Expertos
    • Emprendimiento femenino
  • PARTICIPA
  • INFORMACIÓN
    • Actualidad
      • Big Data e IA
      • Blockchain
      • Ciberseguridad
      • Computación Cuántica
      • 5G
    • Ayudas I+D+i
      • Big Data e IA
      • Blockchain
      • Ciberseguridad
      • Compuntación Cuántica
      • 5G
    • Ayudas Europeas
    • Impacto mediático
    • Infografías
    • Emprendimiento femenino
    • Eventos
  • CONTACTA
  • DISRUPTIVE
    • Plan de trabajo
    • Asambleas
    • What is Disruptive?
  • MIEMBROS
  • CONOCIMIENTO
    • Webinars
    • APTEFORMA | Aula de formación gratuita en tecnologías disruptivas
    • Grupos de trabajo
    • Prospectiva
  • LIDERAZGO
    • Tablero del emprendedor
    • Collaboration Marketplace
    • Ayudas I+D+i
    • Casos de uso
    • Encuentros B2B
    • Registro de Entidades Innovadoras de la Red Privada de Blockchain de APTE – PTE DISRUPTIVE
  • TALENTO
    • Demanda de perfiles profesionales
    • Retos
    • Digital Skills
    • Elevator pitches
    • Expertos
    • Emprendimiento femenino
  • PARTICIPA
  • INFORMACIÓN
    • Actualidad
      • Big Data e IA
      • Blockchain
      • Ciberseguridad
      • Computación Cuántica
      • 5G
    • Ayudas I+D+i
      • Big Data e IA
      • Blockchain
      • Ciberseguridad
      • Compuntación Cuántica
      • 5G
    • Ayudas Europeas
    • Impacto mediático
    • Infografías
    • Emprendimiento femenino
    • Eventos
  • CONTACTA

Mobile Menu

  • LinkedIn
  • Twitter

Abordar los prejuicios de género, raza y otros en la IA (RIA) HORIZON-CL4-2021-HUMAN-01-24

29 de septiembre de 2021 Por //  by admin_disruptive

Fecha de apertura 22 de junio de 2021. Fecha límite21 de octubre de 2021

Presupuesto:

Resultado esperado :

Se espera que los resultados de la propuesta contribuyan a los siguientes resultados esperados:

  • Mayor disponibilidad e implementación de soluciones de IA imparciales y que evitan sesgos en una amplia gama de sectores industriales y digitales.
  • Soluciones basadas en inteligencia artificial para mejorar la igualdad digital y la inclusión social de mujeres y niñas, y otros grupos en riesgo de discriminación, como las minorías étnicas y la comunidad LGBTIQ.
  • Mayor participación de personas subrepresentadas en el diseño, desarrollo, capacitación y despliegue de IA.
  • Mayor conciencia, conocimiento y habilidades sobre IA confiable, libre de prejuicios y socialmente responsable en la industria tecnológica y la comunidad científica

 Alcance :

La investigación demuestra cómo los prejuicios exacerban las desigualdades existentes y refuerzan los estereotipos de género, raciales y de otro tipo en, por ejemplo, el mercado laboral, la educación, los sistemas de publicidad en línea, las redes sociales, los impuestos y el sistema judicial.

El sesgo en la IA puede ocurrir en tres dimensiones: datos de entrenamiento, sesgo en los algoritmos y sesgo en la interpretación de los resultados. Este tema investiga la prevención y mitigación de sesgos en la IA, centrándose en (1) sistemas de recomendación y personalización, (2) toma de decisiones algorítmicas y (3) software de vigilancia, incluido el reconocimiento facial. Las propuestas pueden centrarse en más de uno de estos sistemas basados ​​en IA y deben identificar claramente los casos de uso esperados en la sociedad.

Es necesario probar y evaluar los sistemas de inteligencia artificial con datos de la vida real para detectar y reducir el sesgo y mejorar la precisión, de acuerdo con el reglamento general de protección de datos. Será necesario evaluar la equidad y el beneficio social [1] de los sistemas basados ​​en inteligencia artificial y obtener una mayor comprensión científica sobre su transparencia e interpretación para mejorar los métodos existentes y desarrollar otros nuevos en el empleo, la publicidad, el acceso a la atención médica, la detección del fraude y la lucha contra el fraude. el discurso de odio en línea y, en general, abordar los prejuicios que afectan la capacidad de las personas para participar en la economía y la sociedad. Esto se vuelve particularmente relevante a la luz de la pandemia y los movimientos de justicia social en curso, como #MeToo y Black Lives Matter.

De acuerdo con la prioridad de la Comisión Europea para luchar por una ‘Unión de la Igualdad’, el pilar europeo de derechos sociales, [2] la Estrategia de igualdad de género 2020 – 2025, [3] el Plan de acción contra el racismo de la UE 2020-2025 [ 4] , y la Estrategia de Igualdad LGBTIQ 2020-2025 [5] , se espera que las propuestas:

  • Desarrollar tecnologías y algoritmos para evaluar y abordar el sesgo en los sistemas basados ​​en IA. Estos métodos subyacentes ayudarán a abordar los prejuicios de género, raciales y de edad, así como los prejuicios contra las personas con discapacidades, las personas de entornos socialmente desfavorecidos y la comunidad LGBTIQ en sistemas basados ​​en IA, y apoyarán el despliegue de tales sistemas basados ​​en IA sin prejuicios. soluciones.
  • Desarrollar procesos estandarizados para evaluar y cuantificar la confiabilidad de los sistemas de IA desarrollados, en particular la evaluación del sesgo, la diversidad, la no discriminación y la interseccionalidad [6] , basados ​​en diferentes tipos de medidas de sesgo. Esto podría incluir una metodología para considerar la diversidad y representatividad de los datos, garantizar la confiabilidad, trazabilidad y explicabilidad de los sistemas de IA, probar modelos en varios subgrupos y permitir la participación adecuada de las partes interesadas. [7] También podría incluir mecanismos para señalar y eliminar los riesgos de prejuicios y discriminación.
  • Desarrollar recomendadores y sistemas algorítmicos de toma de decisiones que reduzcan el sesgo en el caso de uso seleccionado.
  • Realizar capacitaciones y crear conciencia sobre la prevención de sesgos interseccionales y de género para investigadores, estudiantes y profesionales de la IA de acuerdo con el Plan de Acción de Educación Digital 2021 – 2027. [8] Las capacitaciones también deben dirigirse a los profesionales de la IA en su conjunto para evitar que el tema sea limitado. a aquellos con un interés ya existente en la IA socialmente responsable. Estas actividades deben llevarse a cabo en cooperación con la Asociación Público-Privada sobre Inteligencia Artificial, Datos y Robótica [9] y otras iniciativas y proyectos relevantes (como la plataforma AI-on-demand).
  • Cooperar con la Asociación Público-Privada sobre Inteligencia Artificial, Datos y Robótica [9] y otras asociaciones relevantes en una amplia gama de sectores industriales y digitales, incluidos representantes de asociaciones profesionales digitales internacionales (por ejemplo, IEEE), industria de la computación, empresas emergentes de alta tecnología. ups / pymes, etc. para promover aún más el uso y la adopción de las herramientas desarrolladas.

Las propuestas deben centrarse en el desarrollo de herramientas y procesos para el diseño, las pruebas y la validación, incluidas las metodologías de ingeniería de software. Los enfoques propuestos también deben crear herramientas para respaldar la implementación y la aceptación, la auditoría y la certificación (cuando corresponda). La inclusión de grupos subrepresentados y marginados en el desarrollo del diseño y la capacitación de los sistemas de IA, y un enfoque transdisciplinario, involucrando socios multidisciplinarios e intersectoriales en el consorcio será esencial.

Se espera que todas las propuestas incorporen mecanismos para evaluar y demostrar el progreso hacia sus objetivos de cumplir con los requisitos clave para eliminar el sesgo (con KPI cualitativos y cuantitativos, demostradores, evaluación comparativa y monitoreo del progreso), y compartir resultados con la comunidad europea de I + D, a través de la IA. -plataforma bajo demanda, así como la herramienta GEAR [11] para maximizar la reutilización de los resultados y la eficiencia de la financiación. Es fundamental garantizar que se tengan en cuenta los resultados disponibles públicamente de los proyectos de investigación pertinentes financiados por la UE (por ejemplo, SHERPA, SIENNA, Panelfit, TechEthos).

Se espera que las actividades alcancen al menos TRL5-6 al final del proyecto

Los consorcios deben intercambiar información y crear sinergias con los proyectos pertinentes financiados en el marco de Horizonte Europa, programa de trabajo 2021-202 AMPLIACIÓN DE LA PARTICIPACIÓN Y FORTALECIMIENTO DEL ESPACIO EUROPEO DE INVESTIGACIÓN [12] .

Se espera que todas las propuestas asignen tareas a las actividades de cohesión con el PPP sobre IA, datos y robótica y acciones financiadas relacionadas con esta asociación, incluida la CSA HORIZON-CL4-2021-HUMAN-01-02.Condiciones específicas del tema :

Se espera que las actividades comiencen en TRL 3-4 y alcancen TRL 5-6 al final del proyecto – ver Anexo General B.Prioridades transversales :

Ciencias socioeconómicas y humanidades

Más información

También podría interesarte:

CDTI publica Misiones Ciencia e Innovación 2025 para fortalecer la cooperación público-privada en I+D

Abierta la convocatoria para los Planes de Valles Regionales de Innovación.

España lanza su primera Estrategia de Tecnologías Cuánticas con una inversión de 800 millones de euros

Conoce las próximas convocatoria del programa europeo ‘Chips para Europa’

El Gobierno lanza ayudas por hasta 2 millones de euros para impulsar proyectos de inteligencia artificial

Fusion for Energy lanza una consulta para definir la futura Estrategia Europea de Fusión

El CDTI lanza la convocatoria INNTERCONECTA-STEP con 90 millones de euros para impulsar proyectos tecnológicos estratégicos en España

Lanzada la convocatoria PCI2025-1 para financiar proyectos de investigación internacional

Abierta la convocatoria para la preparación y gestión de proyectos europeos y atracción de talento internacional

Previous Post: « Experimentos y diseño de uso impulsados ​​por el arte (RIA) HORIZON-CL4-2021-HUMAN-01-21
Next Post: IA para combatir la desinformación (RIA) HORIZON-CL4-2021-HUMAN-01-27 »

Footer

Secretaria Técnica: APTE

Asociación de Parques Científicos y Tecnológicos de España
951 23 13 06

Marie Curie, 35.
Campanillas, Málaga

Contacta

¿Quieres más información?
Contacta con nuestro equipo →

Recibe nuestras noticias por WhatsApp. Únete gratis al grupo.

Participa

Puedes colaborar con disruptive aquí.

  • Instagram
  • LinkedIn
  • Teléfono
  • Twitter
  • YouTube

Ayuda PTR2024-002903 financiada por el Ministerio de Ciencia, Innovación y Universidades a través de la Agencia Estatal de Investigación

  • Aviso legal

Site Footer

Asociación de Parques Científicos y Tecnológicos de España.

C/ Maria Curie, 35 | 29590 Campanillas | Málaga | Tlf.: 627 50 30 86 | ptedisruptive@apte.org

 

Iconos diseñados por xnimrodx from www.flaticon.es

Utilizamos cookies para ofrecerte la mejor experiencia en nuestra web.

Puedes aprender más sobre qué cookies utilizamos o desactivarlas en los ajustes.

PTE Disruptive
Powered by  GDPR Cookie Compliance
Política de privacidad

Esta web utiliza cookies propias y de terceros para obtener estadísticas sobre los hábitos de navegación del usuario, mejorar su experiencia y permitirle compartir contenidos en redes sociales de usuario posible. Usted puede aceptar o rechazar las cookies, así como personalizar cuáles quiere deshabilitar.

Puede encontrar toda la información en nuestra política de privacidad.

Cookies estrictamente necesarias

Las cookies estrictamente necesarias tiene que activarse siempre para que podamos guardar tus preferencias de ajustes de cookies.

Si desactivas estas cookies no podremos guardar tus preferencias. Esto significa que cada vez que visites esta web tendrás que activar o desactivar las cookies de nuevo.

Cookies de terceros

Esta web utiliza Google Analytics y Google Tag Manager para recopilar información anónima tal como el número de visitantes del sitio, o las páginas más populares.

Dejar esta cookie activa nos permite mejorar nuestra web.

¡Por favor, activa primero las cookies estrictamente necesarias para que podamos guardar tus preferencias!