Columna


Los peligros de la inteligencia artificial

JOSÉ WILLIAM PORRAS

10 de junio de 2023 12:00 AM

En una carta abierta más de 1.000 científicos entre otros, el cofundador de Apple, Steve Wozniak y el dueño de Tesla, Twitter y Neuralink, Elon Musk, SpaceX, manifestaron los peligros de la IA: “Los sistemas de IA con inteligencia que compite con la humana pueden plantear profundos riesgos para la sociedad y la humanidad”.

Pero cuáles son los peligros, veamos:

Las tecnologías asociadas a la IA por su capacidad para imitar las características humanas pueden clasificarse en tres etapas de desarrollo:

1. Inteligencia artificial estrecha (ANI), siglas en inglés (Artificial Narrow Intelligence).

Solo realiza una tarea, los sistemas de ANI generalmente se entrenan utilizando un gran conjunto de datos (por ejemplo, de internet) y pueden tomar decisiones o realizar acciones basadas en ese entrenamiento. Una ANI puede igualar o superar a la inteligencia y eficiencia humana pero solo en esa área específica en la que opera, ejemplo, los programas de ajedrez que usan IA. Son capaces de vencer al campeón mundial de esa disciplina, pero no pueden realizar otras tareas. Es la etapa actual de la IA.

2. Inteligencia artificial general (AGI), siglas en inglés (Artificial General Intelligence).

Esta categoría se alcanza cuando una máquina adquiere capacidades cognitivas a nivel humano. Todavía no se ha llegado a esa etapa, pero se está muy cerca.

3. Súper Inteligencia Artificial (ASI), siglas en inglés (Artificial Superintelligence).

Ocurre cuando la IA supera a la humana.

Teóricamente cuando una máquina logre tener IA a la par con la humana (etapa 2), su capacidad de multiplicar esa inteligencia de forma exponencial a través de su propio aprendizaje autónomo hará que en poco tiempo nos supere ampliamente, alcanzando la ASI y no habría manera de detenerla, puesto que su algoritmo neuronal ha sido diseñado para ello, “aprendizaje continuo y a gran velocidad, superando el proceso de aprendizaje de los humanos que es mucho más lento”.

Al salir de Google, Geoffrey Hinton, galardonado con el premio Turing en 2018 junto con Yoshua Bengio y Yann LeCun por su trabajo en aprendizaje profundo, le dijo a la BBC que los avances en la IA le “dan miedo”, dio este ejemplo de un “escenario de pesadilla”: Las máquinas podrían eventualmente “crear subobjetivos como: ‘necesito obtener más poder’”, lo que representaría un “riesgo existencial”.

Ese es el principal peligro y podría representar el fin de la humanidad, aparte de otros peligros como lo mostrado en el informe del banco de inversión Goldman Sachs que estimó a finales de marzo que la IA podría reemplazar a un cuarto de todos los empleos realizados hoy por humanos, aunque también creará más productividad y nuevos trabajos, pero el desempleo será mayor.

Comentarios ()

 
  NOTICIAS RECOMENDADAS