Territori 17: aprendizaje automático y ética

El aprendizaje automático es una rama de la inteligencia artificial en la que se basan aplicaciones como el ChatGPT. Ariadna Font, referente internacional en el aprendizaje automático y la ética, nos habla de las posibles aplicaciones de estas nuevas tecnologías y de los retos éticos que nos plantean.

 

La eclosión de la inteligencia artificial a través de aplicaciones como el ChatGPT, desarrollada por OpenAI, está cambiando nuestras vidas y revolucionando muchos trabajos. La evolución del aprendizaje automático, o ‘machine learning’, tiene como objetivo desarrollar algoritmos y sistemas que puedan aprender y hacer predicciones a partir de datos o de la interacción con los usuarios. “Permite a los sistemas informáticos mejorar automáticamente su rendimiento en una tarea específica a través de la experiencia”, apunta Font.

Esta tecnología está siendo utilizada en varios ámbitos como el de la salud, la seguridad, el comercio, la robótica o la industria, para automatizar procesos, hacer operaciones financieras, detección de fraude o para el diagnóstico de enfermedades. No obstante, su uso también plantea una serie de retos éticos que se tienen que considerar.

Consecuencias no deseadas

Si los algoritmos están entrenados con datos que reflejan los prejuicios y las desigualdades de la sociedad, los resultados pueden ser injustos para ciertas personas o grupos, y pueden conducir a la discriminación. Esto es especialmente preocupante en contextos como la selección de personal, la aplicación de la ley y la concesión de préstamos, donde la discriminación puede tener un impacto significativo. Cómo explica Font, “los modelos de ‘machine learning’ pueden tomar decisiones importantes que afectan nuestras vidas, por lo tanto, es fundamental considerar qué efectos estas decisiones tienen sobre nosotros”.

Por otro lado, el aprendizaje automático puede poner en riesgo la privacidad y la seguridad de las personas. Por ejemplo, los datos que se utilizan para entrenar los algoritmos pueden contener información médica, personal y sensible, y si no son protegidas adecuadamente, pueden ser robadas o utilizadas indebidamente.

Para abordar estos retos éticos, es importante que los diseñadores y desarrolladores de esta tecnología adopten una perspectiva ética y piensen en las implicaciones que puede tener para las personas y la sociedad en general. La adopción de prácticas de protección de la privacidad, la consideración de la justicia y la igualdad en la selección de datos o la adopción de prácticas de transparencia serán esenciales para asegurar que la parte ética y humana no se pierda con la implantación de la inteligencia artificial.

 

11Onze es la fintech comunitaria de Cataluña. Abre una cuenta descargando la app El Canut para Android o iOS. ¡Únete a la revolución!

Si te ha gustado esta noticia, te recomendamos:

Tecnologia

La eclosión del ChatGPT

3min lectura

El ChatGPT ha entrat amb força per revolucionar la manera en què les persones...

Tecnologia

Tendencias tecnológicas del 2023

4min lectura

La inteligencia artificial, el metaverso, el Internet...

Economia

Los algoritmos también hacen de economistas

3min lectura

La automatización del trabajo está creando una...



Equip Editorial Equip Editorial
  1. Joan Santacruz CarlúsJoan Santacruz Carlús says:
  2. Jordi MorenoJordi Moreno says:
    Jordi

    Gràcies per l’explicació

  3. Manuel Bullich BuenoManuel Bullich Bueno says:

Deja una respuesta

App Store Google Play