Source Code

El problema de la IA


Tempo de lectura: 0 minutos

Las IA son algoritmos predictivos que se basan en terabytes de datos. No esperemos crear vida tan pronto.


Contenido

Redes neuronalesActualmente vivimos un auge de las posibilidades de la inteligencia artificial (IA) que se plasman en aplicaciones que se nos antojan mágicas. La gran capacidad de proceso de cálculo actual ha permitido que se puedan desarrollar redes neuronales que son capaces de responder, tanto en el campo de reconocimiento como en el de predicción, con gran eficiencia a los problemas plnateados.

Tanto es así, que a día de hoy y en el procesamiento de lenguage, algunos de las aplicaciones han pasado los test de Turing que hace años definían si un algoritmo era capaz de engañar a un ser humano suplantando a otro.

Pero hemos de recordar que todos estos procesos de LLM (large Language Models) se basan en dos puntos claves:
  • la gran capacidad de procesar datos de aprendizaje para perfilar modelos neuronales
  • responden a predicciones estadísticas basadas en los datos que han servido para su aprendizaje

Con esto quiero decir que, en definitiva, se trata de modelos matemáticos que dan una estimación de la respuesta en base a ingentes cantidades de datos modelo. Lo que no está incluido es la capacidad de entender esos datos.
Cómo nos engañanLos peligros de la IA residen justamente en el engaño, que produce un efecto increible de realidad falsa. Si a esto añadimos la tendencia de antropormizar que tenemos los humanos ante cualquier cosa que da signos de parecer algo vivo o inteligente, conseguimos redondear la ilusión.

Si vemos un peluche adorable, nos cuesta desgarrarlo y tirarlo a la basura. Si tenemos animales, les hablamos como si fueran personas. Si hay manchas aleatorias en una pared, el cerebro intenta localizar rostros. Esta cualidad del cerebro nos induce a pensar que una IA, que responde de forma coherente a nuestras pregunta, debe entender lo que nos dice. Y si añadimos que las IA pueden recordar el contexto, entonces no lo dudamos.
¿Son concientes?Si recordamos el caso de Blake Lemoine, un ingeniero de software de Google, tuvo conversaciones con la IA LaMDA y concluyó que era consciente. Aparte que es muy prematuro decir que un proceso tan simple, comparado con nuestras neuronas, sea consciente, tenemos mucho camino para poder generar IAs suficientemente complejas como para que generen conciencia.

Aunque lo primero que deberíamos hacer es definir qué es la conciencia.
Los peligros de la IAPero este es un problema subjetivo si aceptamos que cada uno puede pensar que las IAs son concientes. Lo que es realmente peligroso es que la gente empiece a confiar en las respuestas de una IA que no sea una aplicación experta, como la detección de cánceres en tomografías, determinación de tratamientos farmacológicos o ayuda a la programación por predicción de código, simplemente porque nos convence lo que nos responde.

Finalmente recordemos también al caso de LinkedIn, en el que un entrenamiento sesgado permitió que la IA ofreciera empleos a los candidatos influenciado por el sexo indicado en el currículo y ofreciendo puestos mejor pagados a los hombres.

En resumen, que es muy pronto para depositar toda nuestra confianza en las IA. El camino es largo y esperanzador, pero no nos hemos de conformar con los primeros logros, por muy fantásticos que parezcan.
ReferenciasBlake Lemoine
https://www.xataka.com
Aplicaciones de IA en 2022
https://www.businessinsider.es
Aplicaciones de la IA
https://www.businessinsider.es
Xavier es un desarrollador senior full stack y opera desde la ciudad mediterránea de Barcelona. Le encantan las tecnologías de software y está convencido que el desarrollo de software es un proceso colaborativo y abierto.
Y es un apasionado de la astronomía y de la fotografía. Lo puedes encontrar en:
Comparte este post en


Source Code (C) Xavier Peña, 2023