La llamada ‘inteligencia artificial’ alucina

La llamada “inteligencia artificial” es un exceso retórico que se han inventado los informáticos, algo así como la “sociedad opulenta” de los economistas. Tras una fraseología ridícula lo que quieren decir es que hay un medio mecánico de ser creativo, lo cual es falso.

La creación es una facultad exclusivamente humana que consiste en elaborar algo que no existía previamente. La producción es completamente diferente de la reproducción. Un buscador de internet no inventa nada; reproduce algo que ya existe previamente. Brinda un listado de enlaces y obliga al usuario a una segunda acción: pulsar en alguno de ellos para localizar lo que busca.

Por el contrario, la “inteligencia artificial” es más cómoda porque ahorra ese segundo paso y muestra directamente una cierta información. La respuesta sigue inmediatamente a la pregunta, sin complicaciones intermedias.

La inmensa mayoría de los usuarios, en contra de lo que ellos mismos creen, lo que buscan realmente no es información sino atajos al conocimiento, resultados inmediatos y fáciles de obtener. Se guían por la ley del mínimo esfuerzo y, con el tiempo, preferirán recurrir a la “inteligencia artificial”. El resultado es que pronto los buscadores, que no son más que un negocio, se fundamentarán en ella.

Por eso todos los monopolios tecnológicos (Microsoft, Google, Facebook, Amazon) corren tras la inteligencia artificial. Las cifras de negocio no son pequeñas. El buscador de Google genera 150.000 millones de dólares, más de la mitad de la facturación de la multinacional. Desde el 14 de mayo los usuarios estadounidenses ya disponen de la función “AI Overviews” de Google.

Pero el conocimiento no conoce atajos. Como los demás chabots, “AI Overviews” devuelve respuestas simples a preguntas simples. De esa manera los algoritmos fabrican un universo intelectual simple, o sea, raquítico. Será un resumen de la “ideología dominante”. En una sociedad racista, como la actual, la “inteligencia artificial” fabrica respuestas racistas y suministra imágenes racistas.

Los chatbots se fundamentan en grandes modelos de lenguaje (LLM) que no elaboran textos cuyos datos sean ciertos, sino sólo probables estadísticamente. Es lo contrario de la lógica científica: una afirmación no es cierta ni falsa porque se corresponda con los hechos sino porque la mayoría así lo cree y así lo expresa en las cuentas que tienen en las redes sociales. En este sentido, la “inteligencia artificial” no es más que una colección de prejuicios muy extendida.

Ahora bien, para que el sistema responda, el contenido tiene que estar en internet. En caso contrario, el usuario no obtendrá ninguna respuesta o el chabot se la inventará. Lo mismo ocurre si el modelo de lenguaje no se ha actualizado. El sistema no responde o muestra explicaciones anticuadas. Es más parecido a una hemeroteca que al periódico de esta mañana.

Cualquier usuario de internet encuentra numerosa información falsa en la red y los chabots repiten y reproducen esas mismas falsedades exactamente. En la jerga informática lo llaman “alucinaciones”. Son textos que el sistema vuelca, escritos de manera coherente pero con datos incorrectos, sesgados o totalmente erróneos.

La coherencia del texto le otorga una apariencia de veracidad pero, una vez más, la coherencia tiene poco que ver con la lógica científica. A medida que el texto fabricado es más coherente, el engaño cuela más fácilmente.

Las alucinaciones de la “inteligencia artificial” no sólo ocurren con lo que habitualmente se consideran como opiniones subjetivas, como la existencia de milagros o las psicofonías, sino también con los documentos científicos. El 15 de noviembre de 2022 Meta presentó “Galactica”, un modelo de lenguaje LLM diseñado para combinar y razonar sobre el conocimiento científico.

“Galactica” se formó con 48 millones de artículos científicos, sitios web, libros de texto, apuntes de conferencias y enciclopedias. Desde el principio “Galactica” advirtió que el resultado podía no ser fiable. Tres días después tuvo que retirarlo a causa de sus errores y alucinaciones (*).

Lo mismo le ocurrió a Google con su chatbot “Gemini”, que elaboraba verdaderas aberraciones. Con el primer modelo de ChatGPT las pruebas demostraron que el 20 por cien de las respuestas eran incorrectas.

El año pasado, durante un pleito en Estados Unidos un abogado le presentó al juez un escrito que contenía jurisprudencia generada por ChatGPT. Entre las sentencias citadas, seis eran falsas. En respuesta, el juez prohibió la presentación de documentos judiciales generados por “inteligencia artificial” que no hayan sido revisados ​​por un ser humano, señalando que “en su estado actual las plataformas de inteligencia artificial generativa son propensas a alucinaciones y sesgos”.

En fin, si creía que ya tenía bastante con la intoxicación mediática, los bulos y las noticias falsas en internet, la “inteligencia artificial” ha llegado para más de lo mismo. Eso sí, la diferencia está en la rapidez. Los chabots alucinan mucho más rápidamente que la agencia Efe, La Sexta o el New York Times.

(*) https://www.cnet.com/science/meta-trained-an-ai-on-48-million-science-papers-it-was-shut-down-after-two-days/

comentario

Los comentarios están desactivados.

Este sitio web utiliza cookies para que usted tenga la mejor experiencia de usuario. Si continúa navegando está dando su consentimiento para la aceptación de las mencionadas cookies y la aceptación de nuestra política de cookies, pinche el enlace para mayor información.plugin cookies

ACEPTAR
Aviso de cookies

Descubre más desde mpr21

Suscríbete ahora para seguir leyendo y obtener acceso al archivo completo.

Seguir leyendo