IA y los retos sin resolver

Introducción

La IA tiene un enorme potencial para mejorar nuestras vidas y construir un futuro mejor. Lo estamos viviendo a diario y lo comenzamos a vivir a partir del 30 de noviembre del 2022 cuando nos enteramos del lanzamiento del ChatGPT.

A un año de su aparición, el chatbot de inteligencia artificial (IA) desarrollado por OpenAI, continúa provocando diversos tipos de impacto en el panorama tecnológico global, y ha sido más que significativo.

Ahora bien, sabemos por todo lo que leemos, vemos y hasta lo percibimos de manera personal, el impacto ha sido en muchos casos muy bueno mientras que en otros casos son materia de análisis, evaluaciones y debates que se están llevando a cabo a nivel mundial. Ejemplo de ésto lo tenemos en relación con el aspecto legal de todo lo que está generando.

La ley tiene como objetivo proporcionar a los desarrolladores e implementadores de IA, requisitos y obligaciones claras con respecto a los usos específicos de la IA. La ley también identifica los sistemas de IA de alto riesgo, como la tecnología de IA utilizada en infraestructuras críticas, la formación educativa o profesional y los componentes de seguridad de los productos.

Todos estos temas los fuí descubriendo en la formación que tuve en UBA IALAB y me abrió la cabeza para darme cuenta de muchísimas cuestiones que hasta ese momento no las había tenido en cuenta.

También me dí cuenta de los desafíos que tenemos por delante que afrontar y resolver como desarrolladores que también somos, ya que como testers debemos controlar la calidad de un software que conlleva paradigmas que se están presentando y terrenos aún no explorados.

Enfrentar estos desafíos es una responsabilidad compartida y de caracter multidisciplinario.

Por último, parte de los retos aquí presentados en las imágenes, están considerados en el programa de estudios del ISTQB AI que estoy leyendo y estudiando, y que prontito estaré publicando el detalle correspondiente en mi blog.

La IA: Un futuro a construir que conlleva grandes desafíos por delante

La inteligencia artificial (IA) sigue experimentado un progreso significativo en los últimos años, recordemos que nos dimos cuenta de su existencia con la aparición del ChatGPT que junto con otras soluciones impulsadas con IA van transformando diversos sectores y abriendo nuevas posibilidades. Sin embargo, hay un largo camino por recorrer en todo aspecto. En este artículo, abordaré algunos de los principales desafíos que enfrenta la IA compartiéndote las referencias al programa de estudios del ISTQB AI que estoy leyendo y estudiando.

Problemas abiertos en la IA

(1) El problema del sentido común
Los modelos de IA aún no tienen un sentido común comparable al nuestro, lo que limita su capacidad para desenvolverse en situaciones cotidianas.

(2) El problema de la caja negra
Es difícil comprender cómo los modelos de IA toman decisiones, lo que dificulta su depuración y mejora.

¿Cómo toman decisiones los modelos de IA? La falta de transparencia en los procesos internos de la IA limita nuestra capacidad de comprensión.

Las consecuencias por lo tanto, hasta ahora son las siguientes:

  • Falta de confianza: La no transparencia de la IA genera desconfianza en los usuarios, quienes en muchos casos terminan no usando tecnologías que no comprenden.
  • Dificultad en la depuración: Si no se comprende cómo un modelo de IA llegó a una decisión errónea, es difícil identificar y corregir la falla. Sobre este tema, desde el punto de vista del control de la calidad se entiende perfectamente y por ese motivo es uno de las grandes dificultades que debemos superar.
  • Sesgos ocultos: La falta de transparencia puede ocultar sesgos en los datos utilizados para entrenar el modelo, lo que lleva a resultados que contiene discriminación

Las soluciones pueden darse de la mano de:

  • Interpretabilidad: Desarrollar herramientas que permitan comprender cómo los modelos de IA toman decisiones.
  • Explicabilidad: Exigir a los desarrolladores de IA que proporcionen explicaciones claras sobre el funcionamiento de sus modelos.
  • Auditorías de IA: Implementar procesos de auditoría para identificar y corregir sesgos y errores en los modelos de IA.

(3) El problema del sesgo
Los modelos de IA pueden conteneer sesgos y por otra parte debemos tener en cuenta considerar nuestros propios sesgos y que hasta que ahora no nos dábamos cuenta de los mismos. También debemos considerar que a la hora de crear un modelo impulsado con IA, tenemos que crear un protocolo para el equipo desarrollador con todo lo relacionado al tema para evitar su inclusión.

Reflexiones y desafíos

Estos desafíos no son insuperables. La investigación y el desarrollo continuo son esenciales para encontrar soluciones y construir una IA más robusta, transparente y ética.

¿Qué podemos hacer?

Promover la investigación y el desarrollo en áreas como la interpretabilidad de la IA, la mitigación del sesgo y el desarrollo de modelos más robustos.
Fomentar la colaboración entre investigadores, desarrolladores, empresas y gobiernos para abordar los desafíos de la IA de manera conjunta.

Referencias del programa de estudios del ISTQB AI

Si buscamos la palabra «retos» en el programa, una de las referencias que encontrarás es la siguiente:
…analiza los retos relacionados con la elección del marco de ML, el algoritmo, la configuración del modelo y los hiperparámetros en proyectos de IA. Destaca los riesgos asociados a las decisiones subóptimas y a la mala implementación de los pasos de evaluación y ajuste en el flujo de trabajo de ML, haciendo hincapié en la importancia de la experiencia y la gestión eficaz a la hora de abordar estos retos. (Página 56)

Si buscamos la palabra «sesgos» en el programa, una de las referencias que encontrarás es la siguiente:
…analiza el sesgo como un aspecto clave en las pruebas de IA, haciendo hincapié en la importancia de comprender y abordar los sesgos en los sistemas de IA para garantizar la imparcialidad, la precisión y las consideraciones éticas. (Página 5)

Si buscamos la palabra «caja negra» en el programa, una de las referencias que encontrarás es la siguiente:
…menciona que un sistema sólo puede probarse como una caja negra, incluso cuando la estructura interna es visible, ya que no proporciona información adicional útil para ayudar en las pruebas. (Página 62)

Si buscamos la palabra «interpretabilidad» en el programa, una de las referencias que encontrarás es la siguiente:
…trata de la interpretabilidad de un sistema basado en IA, destacando que depende en gran medida de los requisitos de las distintas partes interesadas en cuanto a la comprensión de la tecnología subyacente. También menciona que medir y probar el nivel de comprensión para la interpretabilidad puede ser un reto y puede implicar encuestas y cuestionarios a los usuarios. (Página 62)

Si buscamos la palabra «vulnerabilidades» en el programa, una de las referencias que encontrarás es la siguiente:
…es muy probable que los modelos creados mediante aprendizaje por transferencia sean sensibles a las mismas vulnerabilidades que el modelo preentrenado en el que se basan.

Si buscamos la expresión «valores humanos» en el programa, una de las referencias que encontrarás es la siguiente:
…los sistemas de IA deben respetar el estado de derecho, los derechos humanos, los valores democráticos y la diversidad, y deben incluir las salvaguardias adecuadas para garantizar una sociedad justa.

Fuente de inspiración: Programa de Estudios del ISTQB AI

Gus Terrera

Apasionado por el agile testing y la ia.