La inteligencia artificial ha llegado para quedarse. La revolución que ha traído consigo ha sacudido a muchos campos laborales y sociales. Aunque se trata de una herramienta valiosa, afronta a una serie de desafíos, unas situaciones que han sido expuestas este jueves en una conferencia en el Campus de Ceuta.
María Jesús Rodríguez, doctora y especialista en la materia, ha sido la encargada de visibilizar esos problemas aún por superar. Durante su charla ‘De los modelos generativos a los sistemas inteligentes: retos y nuevas direcciones en IA’, ha explicado paso a paso qué problemas deben solucionarse para lograr una tecnología más eficaz que la actual.
La ponencia impulsada por la Cátedra en Inteligencia Artificial, no solo ha abordado estas deficiencias del presente. Durante la misma, la experta se ha hecho eco de los métodos que pueden aplicarse para hacer que su funcionamiento sea más fiable y controlado.
“Las que se suelen usar, como, por ejemplo, ChatGPT, Copilot o Gemini están basadas en modelos largos de lenguaje que son entrenados con una cantidad de datos muy grande”, ha explicado.
“Estas actúan como una caja negra en la que recibe una entrada del usuario y en la que responde con una salida en base a esas informaciones con las que ensaya. Sin embargo, como alucinan mucho esa salida puede ser totalmente impredecible o no tener nada que ver con lo que se le ha preguntado”, ha detallado.
Las llamadas alucinaciones son contestaciones muy distintas a las que son pedidas, es decir, contenidos que no están relacionados realmente con el tema que le ha sido ordenado. “Esto se produce por cómo están programadas”, ha incidido.
“El programador no puede controlar el flujo de la conversación de ninguna forma. Por tanto, saben ‘hablar’, pero no ‘pensar y razonar’ correctamente”, ha remarcado. Precisamente es por este vacío sin cubrir por lo que los investigadores se han puesto manos a la obra para revertir ese efecto.
Actualmente, muchos expertos tienden a “dirigir” las respuestas de estas IA. “Esto se está haciendo desde hace unos meses”, ha aclarado Rodríguez. Por ejemplo, “ChatGPT, en ocasiones, da opciones o pide confirmación de lo se quiere antes de ofrecer una contestación final”, ha explicado.
La meta de este cambio es buscar una mayor satisfacción del usuario, un aspecto que es “esencial” a la hora de evaluar estos sistemas. Tiene sentido ya que, al fin y al cabo, son los que más los usan. Hacerlo permite que hagan su labor de forma más eficiente y fiable ya que, esta práctica esquiva las alucinaciones. Son diversas las técnicas con las que puede alcanzarse dicho objetivo.
La doctora lo ilustra con su propia experiencia tras el desarrollo de un estudio. “Hice durante la tesis un pipe line más complejo. Usé modelos largos de lenguaje en diferentes módulos y leí las preguntas que quieren que se le haga al usuario para hacerlo”. Al ser una indicación más directa y más específica, la IA no pierde el hilo y da una respuesta con sentido. “Así no se deja tanto al azar”, ha expresado.
La inteligencia artificial en el imaginario común queda plasmada como un medio que es capaz de aprender sola a través de órdenes. Sin embargo, no es tal que así. “Hay métodos muy primitivos que se utilizan para enseñar a estas IA. Aunque funcionan de forma distinta, pueden adquirir saberes y todo lo que se le indica se usa para ‘alimentar’ su conocimiento”, ha especificado.
“El problema es que generativa por sí misma puede aprender a decir más cosas, pero no a comunicarlas mejor de lo que suele hacerlo”, ha subrayado. “El objetivo de los nuevos agentes inteligentes es poder llevar a cabo acciones de forma más guiada para desempeñar alguna tarea que desee el usuario”, ha comentado.
“Lo cierto es que las alucinaciones siguen siendo un desafío”, ha asegurado. No es el único reto que encara esta herramienta digital en el presente. Rodríguez ha manifestado que otro de los obstáculos a superar son los sesgos en los que se desarrolla. “La información de la que se nutre los tiene. Por tanto, puede ser machista o racista. Existe la posibilidad porque, lamentablemente, en la sociedad hay personas así”, ha mencionado.
El ser humano en todo momento es el que enseña a la IA, por lo que no es de extrañar que en algún momento plasme y muestre ese tipo de comportamientos. El asunto es parte del debate actual entre los expertos. “Esto está en discusión a raíz de la publicación de una noticia acerca de un hombre que se ha suicidado tras hablar con una inteligencia artificial”, ha especificado.
Hacer que no se vicie o llegue a extremos es complicado, según ha puntualizado la doctora. Ha esclarecido que, para ella, la mejor forma de evitarlo es usar esta tecnología de forma responsable.
No solo ha estimado relevante adoptar esta actitud. Ha trasladado que, a su juicio, lo más importante “es usar el criterio propio antes de sacar cualquier conclusión. Es necesario cuestionar absolutamente todo lo que da la IA como resultado, incluso es el de un problema matemático o la redacción de un contenido”, ha subrayado.
Aunque Gemini o ChatGPT parezcan instrumentos realmente útiles, no son la panacea. Todavía precisan de más avances para ser perfeccionados. La docente ha organizado esta charla por ese motivo. Trata de romper esa imagen intacta para ahondar en el terreno y ver cuál es su alcance real.
“Mi objetivo es enseñar las entrañas de este tipo de sistemas para que el público sepa las limitaciones que tiene. Si lo sabe, puede usarlo con objetividad y con conocimiento. A su vez, pueden esclarecer cuál es el rumbo está tomando la investigación actualmente”, ha destacado.
La ponencia está destinada a principiantes y usuarios, pero también a profesionales dentro del sector. “Al que tiene más idea sobre el tema, le sirve para ver cuáles son sus posibilidades a la hora de emplearlo para generar su código o, en general, cómo poder utilizar mejor esas herramientas tan potentes”.
El magistrado titular de la plaza número 2 de la Sección de lo Penal del…
La Ciudad ha dado luz verde a un ambicioso contrato para la rehabilitación integral de…
El que fuera presidente ejecutivo de Apple, Steve Jobs, tiene una definición perfecta del marketing:…
El 14 de Diciembre de 1.974 se reunía la Asamblea General de las Naciones Unidas…
Corría el anoo domini 1981, era 23 de febrero y se votaba la investidura de…
En los últimos días hemos visto cómo una situación concreta ha generado opiniones, presión y…