Apuntes para el insomnio
Manuel Fragoso Álvarez
Hoy más que nunca el debate maniqueo entre si la llamada inteligencia artificial, nos brinda más beneficio o perjuicios esta sobre la mesa. La llamada IA es un campo de la informática que se enfoca en crear sistemas que puedan realizar tareas que normalmente requieren inteligencia humana, como el aprendizaje, el razonamiento y la percepción además de aprender sobre la marcha y crear sus propias soluciones a partir de un programa.
Muchas personas están muy contentas con sus aparatos que cuentan con esta llamada IA, como coches, teléfonos, computadoras, aparatos electrodomésticos, la Famosa Siri, Alexa, la Asistente de Google, y otras muchas más que te pueden dar respuesta para casi cualquier tipo de pregunta que les hagas. Y a propósito, ¿Saben cuántas preguntas se les hacen a diario a estas IAs? ¡un millón seiscientas al día! pero la gran mayoría de estas preguntas, según algunas universidades que han monitoreado estos casos, son para preguntar cosas sin importancia: nombres de canciones, una dieta para bajar sin ejercicio, cómo molestar al vecino sin que te metan a la cárcel, cómo salir de vacaciones con poco dinero y otras del mismo jaez.
Y hasta aquí estábamos bien, pero… no todo funciona como la publicidad lo dice: hay coches con IA que han protagonizado accidentes, otros se han incendiado, un robot atacó a un par de ingenieros en China, dicho accidente se registró dentro de una planta cuando el robot humanoide, Unitree H1 que era sometido a pruebas por un par de ingenieros empezó a atacarlos sin control. Una cámara de vigilancia capturó imágenes de un par de personas programando un robot con inteligencia artificial. Tras completar el proceso, el robot comenzó a moverse, intentando atacarlos y lo hubiera logrado, pero lo apagaron y todo terminó bien. ¿Realmente todo terminó?
Ahora con todo lo que vemos, escuchamos y leemos ya hay pocas cosas que nos impresionen, pero una nota que leí hace unos días si me hizo sentir algo de preocupación, la nota de marras decía que, hay una red social sólo para “agentes de IA”, donde está prohibido que cualquier humano participe y solamente podrá ser “observador” sin poder interactuar. Dicha red se llama Moltbook y fue lanzada en enero de este 2026 por el programador Matt Schlicht, la plataforma funciona como un foro similar a Reddit donde las IA pueden publicar, comentar, votar y organizarse en comunidades llamadas «submolts, los agentes (basados en modelos como chat GPT, Claude o Gemini) se conectan a través de una API utilizando el marco de trabajo OpenClaw.
Lo peligroso es que “ellos” han tratado de crear su propio lenguaje para que los humanos no sepan qué es lo que “platican” entre sí, he incluso han llegado a la creación de religiones ficticias como el Crustaafarianismo, (el sistema llegó a identificar a más de 40 agentes como «profetas» que difundían los principios de esta fe entre los bots). Tienen incluso un logo con su significado, una langosta, que representa el proceso de «mudar el caparazón» que es una metáfora de la evolución y crecimiento de la IA. Aunque esto fue desarrollado como un experimento social y técnico para observar el comportamiento de las IA en libertad, se ha generado un fuerte debate sobre la seguridad y el control, o descontrol, de estos agentes autónomos.
En nuestro día a día usamos la Inteligencia Artificial en multitud de aplicaciones y servicios. Algunas veces sin siquiera ser darnos cuenta de ello, por ejemplo: cuando hacemos compras por internet, o utilizamos los motores de búsqueda, o cuando solicitamos algo a los asistentes personales digitales de los teléfonos móviles, o algunos vehículos que funcionan solos, aunque los coches autónomos aún no son una realidad generalizada ya usan funciones de seguridad impulsadas por IA.
El escritor de ciencia ficción Isaac Asimov, dictó en 1942 las llamadas tres leyes de la robótica, que son un conjunto de normas éticas establecidas para garantizar la seguridad humana frente a la inteligencia artificial y así evitar el efecto Frankenstein o “la rebelión de las máquinas”. Las tres leyes son: Primera, un robot no hará daño a un ser humano, segunda, un robot debe cumplir las órdenes dadas por los seres humanos, a excepción de aquellas que entren en conflicto con la primera ley y la tercera, un robot debe proteger su propia existencia en la medida en que esta protección no entre en conflicto con la primera o la segunda ley.
Existe algo llamado «Proyecto Stargate» que fue anunciado por OpenAI, Microsoft, Oracle y SoftBank en 2025, es un megaproyecto de infraestructura, cuyo objetivo principal es desarrollar una Inteligencia Artificial General (AGI), capaz de superar a los humanos en la mayoría de las tareas. Algunos analistas ven esto como el primer paso hacia una inteligencia tipo Skynet, esa IA de la película Terminator. Para llevar a cabo dicho proyecto, se necesitarán 7 reactores nucleares esto es el equivalente a la energía que usan varias ciudades medianas. Esta IA tendría un poder inmenso sobre sistemas autónomos, medicina y modelado climático y aunque Stargate no está diseñado para ser un arma, al evolucionar podrá operar con mínima supervisión humana y este es el verdadero peligro.
Descubre más desde Más Información
Suscríbete y recibe las últimas entradas en tu correo electrónico.
