La Inteligencia Artificial General (AGI) supone un gran salto para la IA, ya que le permitiría alcanzar la llamada «singularidad», volviéndose más inteligente que los seres humanos y sin depender de datos externos. Algunos indicios permitirían concluir que la firma OpenAI estaría cerca de conseguirlo en 2024: al mismo tiempo, durante este año podría incrementarse peligrosamente el impacto de la información falsa creada por IA y el uso militar de estas tecnologías.
Aunque la Inteligencia Artificial (IA) viene desarrollándose desde hace varias décadas, no cabe ninguna duda que 2023 fue un año clava en su historia, quizás el más importante en cuanto a impacto social y mediático. Con ChatGPT, la empresa OpenAI consiguió desarrollar una IA de acceso masivo y fácil de utilizar, aunque por el momento estos sistemas siguen dependiendo de los datos ingresados por humanos. ¿Llegarán en 2024 a volverse “independientes”, superando incluso a la inteligencia humana?
Una IA más inteligente
Precisamente, la Inteligencia Artificial General (AGI) es el concepto detrás de ese gran salto que podría dar la IA. Se trata de un punto de inflexión hipotético, también conocido como «singularidad», en el cual la IA se vuelve más inteligente que los seres humanos, según se detalla en un artículo publicado en Live Science. Por el momento, los sistemas de IA van por detrás de la inteligencia humana en áreas como el razonamiento basado en el contexto y la creatividad genuina. Básicamente, la IA es en la actualidad solo aquello que le permiten alcanzar los datos utilizados para su entrenamiento, aportados por humanos.
Pero si la AGI se vuelve una realidad, esto podría cambiar radicalmente, propiciando un crecimiento abismal en el desarrollo tecnológico y científico, aunque no exento de grandes riesgos. ¿Quién podría ponerle un límite a sistemas artificiales independientes y más inteligentes que nosotros una vez que han sido creados? Pues bien, una publicación de OpenAI e información aportada por Reuters sugieren en conjunto que la firma creadora de ChatGPT podría estar cerca de concretar el desarrollo de un sistema denominado Q*, el cual alcanzaría el punto de inflexión de la AGI, quizás en algún momento de 2024.
¿Una nueva era o un escenario apocalíptico?
¿Cuáles serían los riesgos de este hito tecnológico? Por ejemplo, durante 2023 hemos apreciado el crecimiento de los contenidos falsos creados por IA: con sistemas artificiales que lleguen a la “singularidad”, el límite entre lo real y lo falso podría literalmente borrarse. Esto podría influir directamente sobre la democracia, afectando el resultado de las elecciones en todos los países del mundo mediante la difusión de videos y otros contenidos falsos creados por IA. En Estados Unidos, que se prepara para los comicios de este año, ya se piensa en este riesgo y en cómo detenerlo, según publica NBC News.
Por si esto fuera poco, otra tecnología basada en IA podría amenazar directamente a la seguridad y el orden internacional: los “robots asesinos”. Estas máquinas de gran potencial destructivo ya no son patrimonio exclusivo de la ciencia ficción: el crecimiento del presupuesto dedicado a la IA en países como China muestra que su uso militar se ha vuelto estratégico y podría ser empleado ante el mínimo conflicto, ya sea como un arma de defensa o un instrumento de ataque. En consecuencia, la AGI podría propiciar un salto hacia adelante de la humanidad o una era de oscuridad: la decisión está en nuestras manos y se resuelve a partir de la claridad mental y la estatura moral de nuestros dirigentes.