AM Noticias | Tecnología

Suenan las alarmas: ¿puede la Inteligencia Artificial poner en riesgo a la Humanidad?

SuenanasarmapuedelaligenciaificialponerngoalaHumanidad

 Desde que hace unos meses se lanzó la inteligencia artificial ChatGPT, un tema del que casi nadie hablaba pasó a estar en las charlas de sobremesa y las conversaciones entre amigos. ¿Qué impacto tendría esta nueva tecnología sobre áreas tan sensibles como la educación, la automatización de nuestros trabajos o la circulación de información falsa?

Pero mientras la discusión se centraba en estos riesgos más mundanos, un grupo de más de mil expertos y desarrolladores liderados por el icónico Elon Musk llamaron a pausar los avances en la investigación de Inteligencia Artificial (IA) porque “podría poner en riesgo a la Humanidad”.

En realidad, en los círculos de investigación en IA este no es un debate nuevo: gran parte de la comunidad especializada lleva más de una década argumentando que, aunque a nosotros pueda sonarnos absurdo, el riesgo es real: los peligros que acarrea se pueden comparar a los de la tecnología nuclear. Lo que sí es una novedad es que los protagonistas de esta comunidad científica den un golpe en la mesa y pidan “parar la pelota” por seis meses para estudiar los riesgos de los desarrollos en los que ellos mismos trabajan desde hace años.

Históricamente -y en sintonía con lo que pasa con la mayoría de los grandes temas que afectan a la Humanidad- siempre hubo dos bandos en materia de IA. Por un lado están los “apocalípticos” liderados por Elon Musk -pero entre los que se encolumnaron también Bill Gates y Stephen Hawking- que advierten sobre los peligros extremos de estos desarrollos. En diciembre de 2014, durante una entrevista con la BBC, Hawking se adelantó a su tiempo y fue categórico sobre el posible efecto destructor de la tecnología: “El desarrollo de la IA puede terminar con la raza humana”.

En la vereda de enfrente están los “tecnoptimistas”, con Mark Zuckerberg como cara más visible. Aunque algunos creen que Elon Musk exagera en su visión tremendista, ningún análisis serio del tema debería pasar por alto algunas alarmas que se empezaron a encender.

Destellos de Inteligencia Artificial General
Los llamados “sistemas complejos” -un tipo muy particular de desarrollo entre los que se encuentra el cerebro humano- articulan una gran cantidad de componentes simples pero, cuando la cantidad comienza a aumentar, muestran propiedades emergentes que no eran para nada obvias en el esquema original. Los hormigueros son un ejemplo claro de sistema complejo: cada hormiga tiene reglas de conducta muy básicas, no hay autoridad ni planificación, pero con muchas hormigas aparecen fenómenos increíbles como la “agricultura”, la división especializada del trabajo y hasta los cementerios. En comparación a la simpleza de una única hormiga, el desempeño de una colonia de hormigas es absolutamente sorprendente e inesperado. Algo parecido pasa con el cerebro humano. Basta conectar decenas de miles de millones de algo bastante simple como una neurona para que emerjan fenómenos tan exóticos como la consciencia, la inteligencia y la memoria. En los sistemas complejos las consecuencias imprevistas e inesperadas no son la excepción, son la norma.

Nos toca ser contemporáneos de un cambio copernicano: por primera vez en la historia de la Humanidad, nos acercamos a tener una Inteligencia Artificial realmente poderosa, en varios aspectos ya superior en sus capacidades a un ser humano. Pero este poder no radica en que hayamos entendido cómo funciona realmente, sino más bien en un ejercicio heurístico de prueba y error. ¿Qué pasaría si armamos una red neuronal con un billón de parámetros y le damos para que aprenda todo el descomunal volumen de texto disponible en internet? El resultado de hacer esa prueba es GPT-4, presentado la semana pasada por el laboratorio OpenAI.

Con información tomada de: https://www.infobae.com/america/2023/03/30/suenan-las-alarmas-puede-la-inteligencia-artificial-poner-en-riesgo-a-la-humanidad/