Parece que los días finales de noviembre están destinados a las revoluciones en inteligencia artificial (IA). El 30 de noviembre de 2022 -hace un año- la empresa estadounidense OpenAI liberaba el ChatGPT, el primer chatbot de Inteligencia Artificial Generativa, que abrió la puerta a grandes cambios en el mundo del trabajo, la educación e incluso en la vida política.
En criollo, ChatGPT es un sistema automático –muy entrenado– que puede “hablar” con las personas con una naturalidad similar a la del ser humano y que es capaz de crear sus propias respuestas y rumbos de la conversación tomando como insumo la enorme base de datos con la que es alimentado continuamente.
Las últimas investigaciones muestran que, puestos a chatear con ChatGPT y con un ser humano, el 30% de las personas hoy no encuentran la diferencia. Se estima que muy pronto nadie podrá advertir quién es un humano y quién un robot.
ChatGPT. Notable avance de la IA en solo un año. AFPPero pasó un año desde el asombro de ChatGPT y ahora -fines de noviembre de 2023- el mundo asiste a una nueva revolución de la IA. Ya no es solo la IA Generativa, ahora lo que se viene es una tecnología mucho más poderosa, que se conoce en la jerga como IA General (AGI, por sus siglas en inglés).
Además de asombro, esta tecnología mete miedo por las implicancias que puede tener para la humanidad.
La IA General habría estado detrás del sainete en torno al despido -y a los 5 días la reincorporación- del CEO y cerebro de OpenAI Sam Altman. Para quien no siguió la trama, esta semana Altman fue primero despedido de esa empresa, después contratado por Microsoft y después casi todos sus compañeros amenazaron con irse con él si no volvía.
Sam Altman, eje de una disputa en OpenAI.Fuentes del sector afirman que en el medio de la disputa estuvo la IA General. Afirman que, antes del despido, los investigadores de OpenAI habían avisado a la junta directiva sobre un avance que amenazaba a la humanidad, en el marco de un proyecto de investigación de esa compañía, que ahora avanza hacia la versión 5 de ChatGPT, y que se llama Q* (se pronuncia Q-Star).
No está claro el papel que jugó esa carta en el despido de Altman, pero entre los especialistas del sector, todos coinciden que fue determinante. Al tempo que advierten sobre los riesgos de que la IA General, sobre la que habría habido avances, sea liberada al público sin una regulación adecuada.
Qué es la IA General
Para entenderlo fácil, los especialistas consultados por Clarín explican que a la IA General se llega cuando la máquina adquiere la misma inteligencia que un humano adulto promedio. Incluso con la capacidad de ir aprendiendo y -atención- tomar sus propias decisiones para definir problemas complejos.
A diferencia de ChatGPT, la IA General sería capaz de hablar con una persona de una manera absolutamente natural (como en la película “Her”), interpretar situaciones y establecer sus propios objetivos, propósitos e intenciones. Lo que abre un panorama muy complejo en cuestiones económicas (y del mundo del trabajo) y hasta existenciales.
“Si muy rápidamente las IA General se conectan entre sí podemos estar ante una inteligencia superior, que se conoce como ‘superinteligencia artificial’ que sería más inteligente que cualquiera de nosotros”, explica a Clarín Alexander Ditzend, ingeniero industrial y presidente de la Sociedad Argentina de Inteligencia Artificial (SAIA).
Alexander Ditzend, presidente de la Sociedad Argentina de Inteligencia Artificial (SAIA).Esta superinteligencia tendría un coeficiente intelectual más alto que el del ser humano, sería mucho más rápida y, lo más preocupante, tendría autonomía. “Podrá decidir de todo, inclusive si seguimos vivos en el planeta”, dice Ditzend.
Julián Peller es computador científico de la UBA y experto en IA en el Instituto Humai. Explica que IA General primero con un ejemplo bastante inocente. «Uno le puede pedir que prepare un café. Para eso, esta IA preverá todos los pasos y los sub-objetivos que tienen que ir cumpliendo. Por ejemplo, ir a comprarlo si no hay o, incluso, la necesidad de ahorrar para pagar la luz para así garantizar de que el café se haga».
Julián Peller. Computador científico de la UBA y experto en IA en el Instituto Humai.Ahora, ¿qué pasaría si uno le indica a la IA General que haga todo lo posible para curar el cáncer? Todavía estamos en el terreno de las hipótesis, claro, pero entre los investigadores hay temor de que, si no se le especifica bien todas las tareas, en su afán por curar el cáncer, la IA General pueda llegar a iniciar acciones que terminen matando a la humanidad.
Por otra parte, ¿qué pasaría si, aún con las especificaciones correctas, esta tecnología cayera en las manos incorrectas? En líderes que estén en contra de la libertad y los derechos de las personas, por ejemplo. Podría, por ejemplo, asesorar a una persona para que sintetice un virus maligno. O alterar los registros de los hospitales.
El desafío de la autonomía
Rebeca Hwang es experta en IA y vive en Silicon Valley donde impulsa este tipo de emprendimientos. Consultada por Clarín, dice que allí se ha seguido esta semana las disputa de OpenAI con mucho interés. Dice que, con sus amigos, que ocupan puestos de relevancia en la industria de IA, estuvieron todos estos días hablando de esto. Y explica por qué.
Rebeca Hwang, fue jueza en un concurso de empresas de IA, junto a Sam Altman de OpenAI (ChatGPT).Dice que los posibles roles de una IA son tres. En primer lugar, ser un asistente del ser humano. Por ejemplo, un médico que le pide que investigue en la biblioteca diferentes avances de un vacuna.
El segundo rol es el de amplificación del ser humano. Por ejemplo, una investigación sobre cáncer que un humano lo hace con un margen de error del 3,5% se le agrega la IA con otro margen de error y en la suma el margen podría bajar al 0,5%.
Ahora, la tercera categoría es la autonomía. Será cuando la IA ya no necesite una instrucción, guía o supervisión, sino que podrá leer un problema, interpretarlo y crear una estrategia de solución y, a partir de ella, de cómputo. Esto es lo que se conoce como IA General.
“Si la máquina tiene ese nivel de autonomía puede ser peligroso. La amenaza más esotérica es que los robots tomen el control y no tengamos el botón para pararlo. Una IA puede amplificar la capacidad humana de manera increíble y podemos pensar en resolver problemas como el cáncer y el cambio climático, pero ha evolucionado tan rápido en un año, desde que salió ChatGPT que puede llegar a crear vulnerabilidades para los humanos que asusta. y esto es lo que tenemos que considerar y tratar de regular”, le dice Hwang a Clarín.
Ultima chance para regular
Y hablando de robots es Ditzend quien agrega una preocupación a este debate. Cuando explica que la tecnología de IA General puede ser embebida dentro de dispositivos o robots de una manera muy sencilla, de modo que podría haber robots que prácticamente tengan sus propias intenciones.
“Y hay que pensar incluso que el propósito de estas superinteligencias artificiales puedan llegar a estar desalineados con el de la humanidad”, advierte Ditzend.
Embebido. La IA General podrá funcionar dentro de dispositivos o robots. Foto: iStock.“El año pasado, ChatGPT mostró capacidades de razonamiento que ni siquiera los de OpenAI esperaban que surgieran. Ahora con esta nueva tecnología, si no se avanza antes en un marco regulatorio, los riesgos para la humanidad pueden ser muy grandes”, dice Peller
“Esta es la última oportunidad que tenemos para regular correctamente esto y estar seguros de que vamos a tener el control. Después, una vez que se escapó ya va a ser tarde. Estamos viviendo años muy importantes para la historia de la humanidad”, dice Ditzend.
Riesgos de la inteligencia artificial. Foto ShutterstockPeller pone el ejemplo de las redes sociales y el impacto que está teniendo ahora en la sociedad. “Fueron lanzadas al mundo sin regulación y las consecuencias las vemos ahora. La IA General nos tiene que poner en un grado de alerta mayor”.
“No buscamos ser alarmistas ni amarillos. Esta tecnología en estos momentos no es una amenaza a la humanidad, pero hay un horizonte de posibles sucesos raros que conviene analizar bien, antes de lanzarlo al mercado y que sea demasiado tarde. Un sistema como estos bien desarrollado podría ya estar listo en 3 a 5 años”, estima Peller.