NOVEDADES

Los peligros que acarrea la inteligencia artificial se pueden comparar a los de la tecnología nuclear Desde que hace unos meses se lanzó la inteligencia artificial ChatGPT, un tema del que casi nadie hablaba pasó a estar en las charlas de sobremesa y las conversaciones entre amigos.

¿Qué impacto tendría esta nueva tecnología sobre áreas tan sensibles como la educación, la automatización de nuestros trabajos o la circulación de información falsa?, mientras la discusión se centraba en estos riesgos más mundanos, un grupo de más de mil expertos y desarrolladores liderados por el icónico Elon Musk llamaron a pausar los avances en la investigación de Inteligencia Artificial (IA) porque “podría poner en riesgo a la Humanidad”. “Pará, pará, pará… No entiendo. Una cosa es que la IA pueda afectar los empleos y otra muy distinta es que ¡nos pueda matar a todos! ¿Cómo podría un simple chat ser peligroso?”.

En realidad, en los círculos de investigación en IA este no es un debate nuevo: gran parte de la comunidad especializada lleva más de una década argumentando que, aunque a nosotros pueda sonarnos absurdo, el riesgo es real: los peligros que acarrea se pueden comparar a los de la tecnología nuclear. Lo que sí es una novedad es que los protagonistas de esta comunidad científica den un golpe en la mesa y pidan “parar la pelota” por seis meses para estudiar los riesgos de los desarrollos en los que ellos mismos trabajan desde hace años.

Advertisement

Históricamente -y en sintonía con lo que pasa con la mayoría de los grandes temas que afectan a la Humanidad- siempre hubo dos bandos en materia de IA. Por un lado están los “apocalípticos” liderados por Elon Musk -pero entre los que se encolumnaron también Bill Gates y Stephen Hawking- que advierten sobre los peligros extremos de estos desarrollos.

En diciembre de 2014, durante una entrevista con la BBC, Hawking se adelantó a su tiempo y fue categórico sobre el posible efecto destructor de la tecnología: “El desarrollo de la IA puede terminar con la raza humana”. En la vereda de enfrente están los “tecnoptimistas”, con Mark Zuckerberg como cara más visible. Aunque algunos creen que Elon Musk exagera en su visión tremendista, ningún análisis serio del tema debería pasar por alto algunas alarmas que se empezaron a encender. Destellos de Inteligencia Artificial General Los llamados “sistemas complejos” -un tipo muy particular de desarrollo entre los que se encuentra el cerebro humano- articulan una gran cantidad de componentes simples pero, cuando la cantidad comienza a aumentar, muestran propiedades emergentes que no eran para nada obvias en el esquema original. Los hormigueros son un ejemplo claro de sistema complejo: cada hormiga tiene reglas de conducta muy básicas, no hay autoridad ni planificación, pero con muchas hormigas aparecen fenómenos increíbles como la “agricultura”, la división especializada del trabajo y hasta los cementerios. En comparación a la simpleza de una única hormiga, el desempeño de una colonia de hormigas es absolutamente sorprendente e inesperado. Algo parecido pasa con el cerebro humano.

Basta conectar decenas de miles de millones de algo bastante simple como una neurona para que emerjan fenómenos tan exóticos como la consciencia, la inteligencia y la memoria. En los sistemas complejos las consecuencias imprevistas e inesperadas no son la excepción, son la norma./infobae.com

Advertisement
COMPARTIR NOTICIAS

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *