No es inteligencia lo que tiene, por muy artificial que sea

¿Qué es la inteligencia artificial (IA)? Es peligroso llamarlo “inteligencia”, ya que ese es un término para empezar, difícil de definir y encima, tiene connotaciones asociadas que no relacionaría con los algoritmos que tenemos hoy en día (como por ejemplo, “conciencia” o “vida”).

El origen del término podemos situarlo en el año 1956, hace casi 70 años. John McCarthy lo empleó en la Conferencia de Dartmouth con un significado más o menos similar al moderno. Marvin Minsky dijo, en la misma conferencia, que “inteligencia artificial es la ciencia que crea máquinas que hacen cosas que, si fueran hechas por un ser humano, diríamos que este humano es inteligente”, que en mi opinión es más acertada que la idea que mucha gente tiene de la IA. ¿Por qué digo esto? Porque es frecuente que la gente que no tenga cierto conocimiento de lo que es la IA crea que lo que hace es “pensar” y tener “un juicio lógico” y “creatividad”. Y el peligro de creer que esto es posible, que esto es algo real, es creer que puedan tener la capacidad de razonar y sentir, como los seres humanos y por lo tanto, que decidan sublevarse y “dominar el mundo”.

Esto, aunque parezca ridículo, no lo es tanto, porque ya ha ocurrido que se haya creído que la IA ha desarrollado un lenguaje que permite que se comunique con otras IAs saliéndose del control humano (como el caso de Alice y Bob, de Meta) o que tenga el deseo de acabar con la humanidad (el caso de Sophia).

Entonces, si no es esto, ¿qué es? Pues son varias cosas, pero en esencia, yo lo definiría como una máquina o programa con la capacidad de hacernos creer que es capaz de razonar, pensar y crear por la manera y la velocidad en la que nos responde o proporciona resultados a nuestra interacción. Muy similar a lo que dijo Marvin Minsky. Pero es importante recordar que esta máquina o este programa no puede hacer ni proporcionar nada que no se le haya dado la capacidad de hacer. Y este es el siguiente problema.

Fuente: Pixabay

¿Qué riesgos tiene? Yo diría que el mayor riesgo es su mal uso. Hoy en día, muchas IAs generativas lo que hacen es dar una respuesta a partir de la información con las que se las ha alimentado. Esto supone un gran riesgo en el sentido en que esa información frecuentemente (casi toda, no nos vamos a engañar) tiene autoría de derechos y no se ha cedido su uso para alimentar la “máquina”. Y es que lo que hace no es crear algo nuevo, sino identificar patrones y tendencias y entregar a partir de las mismas un producto (un texto, una imágen) que es una especie de collage avanzado de aquella información con la que se ha alimentado. Cuando los artistas decidieron cambiar sus imágenes en distintas plataformas (principalmente en ArtStation) por otras en las que decía “f*ck AI”, muchos programas empezaron a dar resultados extraños (por desgracia, encontrarlos es ahora ya complicado). No es el único riesgo. Cada vez es más frecuente su mal uso en entornos académicos. Cada vez más alumnos realizan sus trabajos empleando IAs como ChatGPT y ciertos “científicos” sin escrúpulos envían artículos a revistas generados por IA que suenan creíbles, pero nadie se tomaría realmente en serio si se leen con cuidado. El problema es que los crean en enormes cantidades y si bien de 1000 se rechacen 999, 1 pasa.

Por supuesto, las IAs no se reducen a las generativas. Las hay de reconocimiento facial, por ejemplo (que por diversas razones han sido prohibidas en Europa) o también las hay que dan asistencia médica, detectando patrones que se asocian a diversos males y enfermedades. Estas IAs no dudo que irán mejorando su calidad y que harán un trabajo cada vez mejor, así que sospecho que resultarán muy útiles en el futuro.

Y es que precisamente entre unos y otros, podemos ver cuál es su mal uso y cuál es el futuro que puede hacer de ellas algo benigno. Las IAs, como cualquier herramienta, deben ser algo que permita facilitar tareas de diversa índole. Pero igual que una herramienta, no debe ser empleada para realizar esa tarea por sí misma ni su creación debería ser dañina para nadie. No debe vulnerar derechos ni su uso debe provocar más daño del que resuelve (por ejemplo, se estima que cada 10 usos de ChatGPT consume 1 litro de agua). Debe emplearse en beneficio de la sociedad y como ayuda para simplificar tareas, pero no para sustituirlas.

Si no aseguramos estos puntos, las IAs no se convertirán en un recurso para facilitar la vida a la gente, sino en una herramienta para socavar las bases de la convivencia y el progreso.

Comentarios

Entradas populares de este blog

Cultura Científica en base a tres definiciones

Límites al Algoritmo A* (A-Estrella)

"No mires arriba", el análisis del análisis