Fecha de apertura 22 de junio de 2021. Fecha límite21 de octubre de 2021
Presupuesto:
Resultado esperado :
Se espera que los resultados de la propuesta contribuyan a los siguientes resultados esperados:
- Mayor disponibilidad e implementación de soluciones de IA imparciales y que evitan sesgos en una amplia gama de sectores industriales y digitales.
- Soluciones basadas en inteligencia artificial para mejorar la igualdad digital y la inclusión social de mujeres y niñas, y otros grupos en riesgo de discriminación, como las minorías étnicas y la comunidad LGBTIQ.
- Mayor participación de personas subrepresentadas en el diseño, desarrollo, capacitación y despliegue de IA.
- Mayor conciencia, conocimiento y habilidades sobre IA confiable, libre de prejuicios y socialmente responsable en la industria tecnológica y la comunidad científica
Alcance :
La investigación demuestra cómo los prejuicios exacerban las desigualdades existentes y refuerzan los estereotipos de género, raciales y de otro tipo en, por ejemplo, el mercado laboral, la educación, los sistemas de publicidad en línea, las redes sociales, los impuestos y el sistema judicial.
El sesgo en la IA puede ocurrir en tres dimensiones: datos de entrenamiento, sesgo en los algoritmos y sesgo en la interpretación de los resultados. Este tema investiga la prevención y mitigación de sesgos en la IA, centrándose en (1) sistemas de recomendación y personalización, (2) toma de decisiones algorítmicas y (3) software de vigilancia, incluido el reconocimiento facial. Las propuestas pueden centrarse en más de uno de estos sistemas basados en IA y deben identificar claramente los casos de uso esperados en la sociedad.
Es necesario probar y evaluar los sistemas de inteligencia artificial con datos de la vida real para detectar y reducir el sesgo y mejorar la precisión, de acuerdo con el reglamento general de protección de datos. Será necesario evaluar la equidad y el beneficio social [1] de los sistemas basados en inteligencia artificial y obtener una mayor comprensión científica sobre su transparencia e interpretación para mejorar los métodos existentes y desarrollar otros nuevos en el empleo, la publicidad, el acceso a la atención médica, la detección del fraude y la lucha contra el fraude. el discurso de odio en línea y, en general, abordar los prejuicios que afectan la capacidad de las personas para participar en la economía y la sociedad. Esto se vuelve particularmente relevante a la luz de la pandemia y los movimientos de justicia social en curso, como #MeToo y Black Lives Matter.
De acuerdo con la prioridad de la Comisión Europea para luchar por una ‘Unión de la Igualdad’, el pilar europeo de derechos sociales, [2] la Estrategia de igualdad de género 2020 – 2025, [3] el Plan de acción contra el racismo de la UE 2020-2025 [ 4] , y la Estrategia de Igualdad LGBTIQ 2020-2025 [5] , se espera que las propuestas:
- Desarrollar tecnologías y algoritmos para evaluar y abordar el sesgo en los sistemas basados en IA. Estos métodos subyacentes ayudarán a abordar los prejuicios de género, raciales y de edad, así como los prejuicios contra las personas con discapacidades, las personas de entornos socialmente desfavorecidos y la comunidad LGBTIQ en sistemas basados en IA, y apoyarán el despliegue de tales sistemas basados en IA sin prejuicios. soluciones.
- Desarrollar procesos estandarizados para evaluar y cuantificar la confiabilidad de los sistemas de IA desarrollados, en particular la evaluación del sesgo, la diversidad, la no discriminación y la interseccionalidad [6] , basados en diferentes tipos de medidas de sesgo. Esto podría incluir una metodología para considerar la diversidad y representatividad de los datos, garantizar la confiabilidad, trazabilidad y explicabilidad de los sistemas de IA, probar modelos en varios subgrupos y permitir la participación adecuada de las partes interesadas. [7] También podría incluir mecanismos para señalar y eliminar los riesgos de prejuicios y discriminación.
- Desarrollar recomendadores y sistemas algorítmicos de toma de decisiones que reduzcan el sesgo en el caso de uso seleccionado.
- Realizar capacitaciones y crear conciencia sobre la prevención de sesgos interseccionales y de género para investigadores, estudiantes y profesionales de la IA de acuerdo con el Plan de Acción de Educación Digital 2021 – 2027. [8] Las capacitaciones también deben dirigirse a los profesionales de la IA en su conjunto para evitar que el tema sea limitado. a aquellos con un interés ya existente en la IA socialmente responsable. Estas actividades deben llevarse a cabo en cooperación con la Asociación Público-Privada sobre Inteligencia Artificial, Datos y Robótica [9] y otras iniciativas y proyectos relevantes (como la plataforma AI-on-demand).
- Cooperar con la Asociación Público-Privada sobre Inteligencia Artificial, Datos y Robótica [9] y otras asociaciones relevantes en una amplia gama de sectores industriales y digitales, incluidos representantes de asociaciones profesionales digitales internacionales (por ejemplo, IEEE), industria de la computación, empresas emergentes de alta tecnología. ups / pymes, etc. para promover aún más el uso y la adopción de las herramientas desarrolladas.
Las propuestas deben centrarse en el desarrollo de herramientas y procesos para el diseño, las pruebas y la validación, incluidas las metodologías de ingeniería de software. Los enfoques propuestos también deben crear herramientas para respaldar la implementación y la aceptación, la auditoría y la certificación (cuando corresponda). La inclusión de grupos subrepresentados y marginados en el desarrollo del diseño y la capacitación de los sistemas de IA, y un enfoque transdisciplinario, involucrando socios multidisciplinarios e intersectoriales en el consorcio será esencial.
Se espera que todas las propuestas incorporen mecanismos para evaluar y demostrar el progreso hacia sus objetivos de cumplir con los requisitos clave para eliminar el sesgo (con KPI cualitativos y cuantitativos, demostradores, evaluación comparativa y monitoreo del progreso), y compartir resultados con la comunidad europea de I + D, a través de la IA. -plataforma bajo demanda, así como la herramienta GEAR [11] para maximizar la reutilización de los resultados y la eficiencia de la financiación. Es fundamental garantizar que se tengan en cuenta los resultados disponibles públicamente de los proyectos de investigación pertinentes financiados por la UE (por ejemplo, SHERPA, SIENNA, Panelfit, TechEthos).
Se espera que las actividades alcancen al menos TRL5-6 al final del proyecto
Los consorcios deben intercambiar información y crear sinergias con los proyectos pertinentes financiados en el marco de Horizonte Europa, programa de trabajo 2021-202 AMPLIACIÓN DE LA PARTICIPACIÓN Y FORTALECIMIENTO DEL ESPACIO EUROPEO DE INVESTIGACIÓN [12] .
Se espera que todas las propuestas asignen tareas a las actividades de cohesión con el PPP sobre IA, datos y robótica y acciones financiadas relacionadas con esta asociación, incluida la CSA HORIZON-CL4-2021-HUMAN-01-02.Condiciones específicas del tema :
Se espera que las actividades comiencen en TRL 3-4 y alcancen TRL 5-6 al final del proyecto – ver Anexo General B.Prioridades transversales :