Por José Antonio Díaz Campos

¿Qué ocurriría si en el futuro la inteligencia artificial (IA) se volviera más inteligente que los humanos? Seguramente esta haya sido una pregunta que todos nos hayamos planteado en los últimos tiempos, debido a lo que, a día de hoy, parece un avance imparable de esta tecnología. Y es una pregunta legítima, puesto que ya se empiezan a vislumbrar algunas de las capacidades y riesgos que la IA nos plantea.

En relación con lo anterior, hay un concepto que ha captado nuestra atención y ese es el de singularidad, que viene a referirse a un punto en el tiempo en el que, la civilización humana y la tecnología experimentarán cambios tan rápidos y fundamentales que el mundo se transformará de maneras que son difíciles de predecir o entender desde nuestra perspectiva actual.

Al mismo tiempo, debemos introducir otro concepto y este es el de Inteligencia Artificial General (IAG), que se define como una forma de IA que será capaz de realizar cualquier tarea de corte intelectual que pueda desarrollar un humano. La IAG contará con la capacidad de aprender por sí misma y, por tanto, de mejorarse, acelerando el proceso exponencialmente.

Por tanto, vemos que la IAG y la singularidad son conceptos interconectados. De hecho, la IAG se suele considerar como un paso previo a alcanzar la singularidad. Sin embargo, en la actualidad hay un gran debate sobre si esto tendrá efectos positivos o negativos sobre el mundo y la sociedad.

Por ejemplo, podemos encontrar opiniones optimistas, como la de Ray Kurzweil, un famoso científico especializado en IA, que opina que la IAG puede llevarnos a resolver algunos de los grandes problemas con los que se enfrenta la humanidad.

En el otro extremo, encontramos personajes como Stephen Hawking, que ya advirtió de que el desarrollo de la IA completa podría desembocar en el fin de la raza humana[1].

Ciertamente, como Hawking apuntaba, el desarrollo de los seres humanos está limitado por la biología y, por definición, es muy lento (desde nuestro punto de vista). Sin embargo, una máquina que esté programada para ello, podría alcanzar un grado de desarrollo alto en relativamente poco tiempo.

Siempre que surgen grandes asimetrías suelen surgir grandes problemas. La gran asimetría entre humanos y la IA es la que se acaba de apuntar.

Lo cual nos lleva a la siguiente pregunta: ¿podría la IA volverse algún día contra los humanos? O: ¿se podrá siempre controlar la IA?

Desde luego, son preguntas difíciles de resolver, sobre todo ahora, pero todo parece apuntar a que la regulación (esta vez sí) jugará un papel clave.

Bajo nuestro punto de vista, cualquiera que haya usado alguna herramienta de IA se habrá dado cuenta de que son herramientas muy poderosas, pero las consecuencias que tenga no solo sobre el usuario, sino sobre la sociedad, dependerá de cómo y en qué sectores se use.

La Unión Europea ya se ha adelantado con su normativa sobre IA, de la que podemos destacar, entre otros aspectos, el establecimiento de diferentes hipótesis para distintos niveles de riesgo[2], es decir, el principio de la regulación es una aproximación basada en el riesgo (“risk-based approach”).

No obstante y con independencia de lo anterior, una consecuencia que sin duda tendrá la IA sobre la sociedad será el profundizar aún más en la dependencia de las pantallas que ya existe y cuyos efectos sobre la salud física y mental son patentes.

Por ejemplo, un efecto de la IA que podría ser grave es su influencia sobre la capacidad crítica y de pensamiento de los seres humanos. Por un lado, podríamos pensar que tener un acceso rápido y personalizado a herramientas de aprendizaje y fuentes de información con IA podría ser positivo, pero también es cierto que esto, a largo plazo, si la dependencia de estas herramientas es alta, podría acabar por atrofiar estas habilidades.

Y, por último, pero no menos importante, ¿cuál será el papel que jugará la IA en la economía y las finanzas? La IA ya está teniendo efectos en la economía y las finanzas y prueba de ello es que la palabra “inteligencia artificial” suele aparecer con asiduidad en los informes de resultados financieros que las empresas cotizadas presentan cada trimestre.

No obstante, se suele decir que la IA será muy efectiva a la hora de hacer más eficientes procesos de fabricación o de creación de productos, lo que llevará sin duda a la pérdida de empleos en ciertos sectores.

En el ámbito financiero, la IA tiene el potencial de transformar radicalmente procesos como el análisis de grandes volúmenes de datos para identificar tendencias de mercado, optimizar la gestión de riesgos mediante algoritmos predictivos y personalizar servicios financieros a través de sistemas de recomendación inteligentes.

Para navegar esta transición, es crucial desarrollar políticas que promuevan la educación técnica especializada y la recualificación de profesionales, incentivar la investigación en IA que priorice la ética y la seguridad cibernética, y establecer marcos regulatorios que armonicen la innovación tecnológica con la protección de derechos y estándares sociales.

[1] Stephen Hawking: “AI could spell end of the human race”, BBC News, 2 de diciembre de 2014. https://www.youtube.com/watch?v=fFLVyWBDTfo&t=275s

[2] “Ley de IA de la UE: primera normativa sobre inteligencia artificial”, https://www.europarl.europa.eu/topics/es/article/20230601STO93804/ley-de-ia-de-la-ue-primera-normativa-sobre-inteligencia-artificial.

(Imagen creada con ChatGPT 4.0)


José María López Jiménez

Especialista en regulación financiera. Doctor en Derecho

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *