FUNDACIÓ MIGUEL ROSA MORÁN

Noticias

Hoy todo va demasiado rápido y esto impide que seamos conscientes de lo útiles que pueden ser algunos instrumentos tecnológicos. La IA está cada día más presente en nuestros quehaceres diarios y si no, que se lo digan a las grandes empresas tecnológicas que se encargan de que así sea. Hoy día los datos lo son todo y ellas lo saben. Por eso, no hemos de estar ajenos a conocer lo que realmente implica usar IA y comprender qué significa usar un chat de inteligencia artificial generativa. Nuestro bienestar y salud pueden estar comprometidos si no somos conscientes de ello y saber usarlas se ha convertido en algo primordial en personas mayores si no queremos quedar excluidos.

El uso responsable de la Inteligencia Artificial requiere atender principios que aseguren respeto, equidad y bienestar social. Para ello, los proveedores de estas herramientas han de cumplir algunas consideraciones:

  1. Transparencia. Los sistemas de IA deben ser comprensibles y las personas deben saber cuándo están interactuando con una IA y cómo se toman las decisiones automatizadas.
  2. Privacidad y protección de datos. Se debe garantizar el cumplimiento de las leyes de protección de datos. La IA no debe recopilar ni usar información personal sin consentimiento informado previo.
  3. No discriminación. Los algoritmos deberían diseñarse para evitar sesgos que perjudiquen a grupos por edad, género, origen, nivel educativo o situación socioeconómica.
  4. Responsabilidad humana. La IA debe ser una herramienta de apoyo, no un sustituto de la ética o el juicio humano.
  5. Sostenibilidad social y ambiental. Promover un uso de la IA que favorezca el bienestar común y reduzca el impacto ambiental (por ejemplo, optimizando energía o transporte).
  6. Seguridad, control de acceso y gestión del riesgo. Proteger los sistemas frente a ataques o manipulaciones, garantizando la seguridad de sus modelos.

Por nuestra parte, los usuarios además de comprender cómo están diseñadas, hemos de ser conscientes de un uso ético y adecuado de la IA. Qué podemos tener en cuenta:

  1. Saber identificar cuándo una IA está incumpliendo o sobrepasando lo ético.
  2. Detectar acciones ilegales de otros o de la misma IA. Por ejemplo, cuándo recoge, procesa o comparte datos personales sin base legal, sin transparencia o sin garantizar derechos.
  3. Tener claras las acciones de una IA que sobrepasa la ética. Por ejemplo, cuando una IA
    1. Recolecta datos sin consentimiento informado.
    2. No informa al usuario de que sus datos serán procesados por una IA.
    3. Comparte o vende datos a terceros sin autorización.
    4. No permite que el usuario elimine o corrija sus datos.
    5. Usa datos con fines distintos a los originales (por ejemplo, entrenar modelos comerciales con datos de salud pública).
    6. No anonimiza adecuadamente los datos antes del entrenamiento.
  1. Tener claro cómo protegerse:
    1. Revisar las políticas de privacidad de las herramientas que usas.
    2. Desconfiar de apps o servicios que piden datos excesivos.
    3. Exigir transparencia: saber qué datos se recogen, con qué fin y durante cuánto tiempo.
    4. denunciar ante el organismo correspondiente.
  1. Disponer de programas de formación inclusiva y práctica que permitan la alfabetización digital a distintos niveles de la población.
  2. En el ámbito rural definir laboratorios rurales de innovación con apoyo y la mentorización de jóvenes que acompañan y enseñan sobre su uso.