Usted está aquí
La Inteligencia Artificial Explicable ayuda a las personas encontrarsoluciones
La denominada Inteligencia Artificial (IA) Explicable representa un área de creciente interés en el campo de la inteligencia artificial y el aprendizaje automático, según los expertos.
Mientras que las tecnologías de IA tradicionales pueden tomar decisiones automáticamente a partir de los datos, la IA Explicable proporciona además razones individuales para estas decisiones.
Esto ayuda a evitar el llamado fenómeno de la "caja negra", en el que la IA llega a conclusiones a través de medios poco claros y potencialmente problemáticos, según la compañía tecnológica japonesa Fujitsu (www.fujitsu.com) , que desarrolla un nuevo sistema basado en este principio con la Universidad de Hokkaido (www.global.hokudai.ac.jp).
Este nuevo sistema de Fujitsu y Hokkaido, explica a los usuarios las decisiones de la IA, y también les presenta automáticamente los pasos concretos necesarios que tendrían que dar para conseguir un determinado resultado deseado y para obtener hipotéticas mejoras, basándose en los datos que procesa la IA sobre las revisiones médicas, por ejemplo.
Por ejemplo, si una IA que emite juicios sobre el estado de salud de una persona determina que ésta no es saludable, la nueva tecnología de IA Explicable puede utilizarse para explicar la razón del resultado a partir de los datos de exámenes médicos como la altura, el peso y la presión arterial.
Para, después, ofrecer al usuario sugerencias específicas sobre la mejor manera de recuperar la salud, analizando un gran número de datos de los exámenes médicos, teniendo en cuenta su viabilidad y dificultad para ponerlos en práctica.
Basándose en los datos de las revisiones médicas, esta IA Explicable presenta al usuario los atributos (peso corporal, masa muscular y presión arterial) que tiene cambiar para reducir el riesgo de sufrir una determinada enfermedad y, además, le explica cuáles de ellos se pueden cambiar con el menor esfuerzo posible y con riesgos bajos para la salud.
Esta nueva tecnología ofrece la posibilidad de mejorar la transparencia y la fiabilidad de las decisiones tomadas por la IA, lo que permitirá a más personas en el futuro interactuar con las tecnologías que la utilizan, ofreciendo una sensación de confianza y tranquilidad, según Fujitsu.
PROGRAMAS INFORMÁTICOS QUE APRENDEN
“Un algoritmo de IA es un programa de ordenador que necesita tener un entrenamiento antes de poder ser de alguna utilidad”, explica a Efe, Carlos Cordero, director de Tecnología (Chief Technology Officer o CTO) de Fujitsu.
Señala que “el entrenamiento de una IA que nos ayude en la determinación de anomalías en mamografías, consiste en hacer “leer” a dicho programa miles de imágenes de mamografías”.
“Cada una de dichas imágenes ha sido “etiquetada” por expertos para indicarle al programa cuales son normales y cuales son anormales y donde radican dichas anomalías”, explica.
“Una IA entrenada de este modo no necesita de más atención y puede ponerse en producción para dar soporte a los expertos e indicarles en que imágenes ve o no ve anomalías”, según Cordero.
El experto señala que la gran mayoría de las IAs siguen este proceso de entrenamiento y puesta en producción, pero todas tienen dos importantes problemas.
“Por un lado, no explican los resultados que reportan, en el caso anterior si la imagen es anómala o no, y el experto no tiene manera de saber porque la IA ha dicho que es normal o anormal. Tiene que hacer un acto de fe y, en ciertos sectores como el médico, esto es un gran problema”, puntualiza.
“Por otro lado, los resultados que reportan tienen una dependencia total y absoluta de la fase de entrenamiento y de los medios (las imágenes) que se le han dado para poder aprender. Si ese conjunto de imágenes no es lo suficientemente amplio se va a generar una IA mal entrenada, que puede dar resultados poco claros y potencialmente problemáticos”, resalta.
INTELIGENCIA ARTIFICIAL MÁS TRANSPARENTE
“La “IA Explicable” es una nueva tecnología que ofrece la posibilidad de mejorar la fiabilidad de las decisiones tomadas por la Inteligencia Artificial, ya que no lo hace de manera automática, sino que añade razones en función de las decisiones generadas. Explica el porqué de la decisión”, según Cordero.
“Además facilita la posibilidad de ofrecer a los usuarios los pasos concretos que ha seguido para lograr los resultados, para que puedan llegar a entender cómo ha llegado a esa conclusión e incluso ayudarle a entender resultados erróneos y la necesidad de un reentrenamiento”, según el CTO de Fujitsu.
“Si utilizamos la IA Explicable en una revisión médica podemos determinar con más éxito el nivel de riesgo de una enfermedad, añadiendo datos como el peso, la masa muscular, presión arterial o la altura, ya que es más realista, además de aportar sugerencias para mejorar la salud”, explica Cordero.
Este experto destaca que las decisiones de IA son más precisas que las de las personas, pero las personas demandan a la IA una justificación de sus conclusiones y así lo afirma un 60% de los consultados por Fujitsu.
Cordero considera que “se debe evitar el fenómeno “caja negra” y proporcionar razones a los datos de IA, para que las decisiones que se toman sean más precisas, ofrezcan una confianza plena y ayuden a tomar medidas perfectas”.
“Un médico no puede fiarse del resultado de una IA que no sea capaz de explicarle cómo ha llegado a un diagnóstico, lo mismo que un inversor puede poner en duda el resultado de una IA que le indique que tiene que cambiar su cesta de inversiones, sin explicarle los motivos que le llevan a sugerir dicho cambio”, concluye Cordero.
DESTACADOS:
+ “Este algoritmo informático puede informar a los usuarios los pasos que ha seguido para lograr unos resultados y que así puedan entender cómo ha llegado a esa conclusión explicando, por ejemplo, la razón por la que considera que una mamografía es normal o anormal, lo cual es importante para un médico”, indica Carlos Cordero, director de Tecnología de Fujitsu.
+ Esto ayuda a evitar el llamado fenómeno de la "caja negra", en el que la IA llega a conclusiones a través de medios poco claros y potencialmente problemáticos, según Fujitsu, que desarrolla un nuevo sistema basado en este principio con la Universidad de Hokkaido.
+ “Si utilizamos la IA Explicable en una revisión médica podemos determinar con más éxito el nivel de riesgo de una enfermedad, añadiendo datos como el peso, la masa muscular, presión arterial o la altura, ya que es más realista. Además aporta sugerencias para mejorar la salud”, explica Cordero.
Por Omar Goncebat EFE/REPORTAJES