El blog de bCube

[bCube CMS]: Inteligencia artificial, la tecnología “que piensa”

Escrito por Carmen Torres | 28-jun-2023 8:48:42

En los últimos meses, estamos oyendo hablar mucho de Inteligencia Artificial pero, ¿realmente sabemos qué es? ¿Cómo funciona? ¿Qué peligros conlleva? Lo que antes podía ser una conversación para ingenieros, matemáticos o informáticos está ahora en boca de todos. La IA está aquí, ha llegado para quedarse y puede llegar a producir en poco tiempo un cambio profundo e irreversible en la sociedad. De hecho, ya lo está haciendo.

 

¿Por qué debemos conocer la Inteligencia Artificial? Para empezar, porque hoy en día es prácticamente omnipresente, incluso en nuestras tareas cotidianas. La IA se utiliza en muchos campos, desde sistemas avanzados de computación cuántica y sistemas de diagnóstico médico hasta electrónica de consumo, asistentes personales, etc. Para tomar decisiones sobre dónde y cómo emplearla hay que empezar primero por conocer sus elementos esenciales.

 

¿Qué es la IA?

No es lo que vemos en películas como Terminator, Robocop, Odisea en el Espacio o Blade Runner. La Inteligencia Artificial se puede definir como la capacidad de una máquina para realizar funciones cognitivas que asociamos con mentes humanas (aprender, razonar, resolver problemas…). En definitiva, la simulación de procesos de inteligencia humana en máquinas. Se han definido tres tipos de inteligencia artificial: débil, fuerte o súper inteligencia.

  • Artificial Narrow Intelligence (IA débil): son máquinas diseñadas para una tarea específica, que operan en un entorno predefinido, con capacidad de autoaprendizaje, que pueden mejorar con el uso y los datos. Por ejemplo: Siri, Alexa, recomendaciones de compra de Amazon, recomendaciones de series de Netflix, traductores automáticos, reconocimiento de imágenes, etc. Esta IA puede realizar tareas rutinarias y repetitivas, como los chatbots que reconocen las conversaciones basadas en voz y texto que se utilizan para responder a las consultas de clientes. Aquí se enmarcaría ChatGPT, que sería una IA conversacional. Este tipo de inteligencia es superior a los humanos en dominios especializados, pero es incapaz de generalizar. 

  • Artificial General Intelligence (IA fuerte): son máquinas tan inteligentes como los humanos en una serie de tareas cognitivas, y puede realizar cualquier tarea intelectual que pueda realizar un ser humano: aprender, percibir, comprender, experimentar consciencia, creatividad, empatía, pensamiento abstracto, o encontrar soluciones a problemas desconocidos. Es la que solemos ver en las películas de ciencia ficción y, de momento, no existe nada parecido en la vida real ni se sabe cómo hacerla, aunque algunos futurólogos predicen que podría llegar en la década de 2030, gracias al desarrollo exponencial y combinando diferentes tecnologías. 

  • Super Intelligence (Súper inteligencia): estas máquinas excederían a la inteligencia humana, siendo capaces de pensar de manera científica y creativa en cualquier campo, con habilidades sociales e inteligencia emocional. Serían capaces de crear sistemas aún más inteligentes, con habilidades que irán más allá de nuestro entendimiento o control, como vimos en la saga Terminator. De momento, no hay indicios racionales de que pueda existir en un futuro cercano.

¿Cómo funciona la IA actual?

Gracias a la explosión de datos (Big Data), los algoritmos con capacidad de aprendizaje automático (machine learning), y el crecimiento exponencial de las capacidades de procesamiento (GPU) y el almacenamiento en la nube (cloud computing). 

Un algoritmo es la secuencia de instrucciones que le dicen a una máquina lo que tiene que hacer para hallar la solución a un problema. Es un elemento fundamental en la programación actual y se escribe en lenguajes de programación como Python o C++.

Machine Learning o aprendizaje automático, concepto introducido por Arthur Samuel en 1959, es el campo de estudio que da a los ordenadores la capacidad de aprender sin ser programados explícitamente. Actualmente, es un campo dentro de la ciencia de ordenadores y es el elemento central de la inteligencia Artificial actual. 

La IA se basa en algoritmos y métodos estadísticos avanzados capaces de identificar y caracterizar patrones y relaciones dentro de grandes conjuntos de datos (Big Data). A partir de este análisis, puede inferir predicciones y recomendaciones. Los algoritmos se adaptan en respuesta a nuevos datos y experiencias, mejorando su eficacia a lo largo del tiempo.

 

Procesos de aprendizaje del machine learning

El machine learning se basa en la recopilación de un conjunto de datos y la construcción algorítmica de un modelo estadístico, que se utiliza para resolver un problema práctico y generar una predicción.

¿Cuál es la diferencia frente a la programación tradicional? Pues que en la programación, la máquina recibe los datos de entrada y un programa, o algoritmo para generar un resultado, mientras que en el machine learning los datos de entrada junto con el resultado deseado se introducen en la máquina durante la fase de aprendizaje, y ésta elabora un programa (algoritmo o modelo) de forma semi-autónoma. 

 

Fuente: elaboración propia.

 

 

La fase de aprendizaje es un proceso iterativo que requiere la asistencia durante el entrenamiento de científicos de datos para ajustar algunos de los parámetros del modelo, en función de la tasa de error observada en las predicciones realizadas. Este procedimiento se denomina Aprendizaje Supervisado o Supervised Machine Learning y suele utilizar métodos de regresión matemática. ChatGPT se basa en este proceso de entrenamiento supervisado, donde el modelo se alimenta de un gran volumen de textos y, a partir de estos, aprende las relaciones entre las palabras y frases.

Otro procedimiento es el Aprendizaje No Supervisado o Unsurpervised Machine Learning. En este caso, un algoritmo analiza los datos de entrada sin que se le dé una variable de salida explícita, sin etiquetas, y agrupa los datos por similitud, al igual que el aprendizaje de humanos y animales. Se utiliza, por ejemplo, para segmentar clientes para mejorar campañas de marketing o reducir el abandono (churn), recomendar películas en función de las preferencias o noticias que un lector pueda querer leer en función del artículo que esté leyendo en ese momento… 

Un tercer método de aprendizaje es el llamado Aprendizaje Reforzado, Reinforcement Machine Learning o Zero-Data Machine Learning. En este caso, el algoritmo aprende a realizar una tarea simplemente tratando de maximizar las recompensas que recibe por sus acciones, sin utilizar datos de entrenamiento, por lo que no se puede definir claramente el estado final ideal, y la única manera de aprender sobre el entorno es interactuar con él. Este método se utiliza, por ejemplo, en juegos (ajedrez, damas, go…), para optimizar la cartera de inversión en acciones, en robótica y sistemas de movilidad autónoma (roomba), etc. 

 

Aprendizaje profundo o deep learning

En 1943, McCulloh and Pitts desarrollaron el primer modelo de neurona artificial que dio lugar a la investigación de redes neuronales que limitan el comportamiento del cerebro humano. Hace dos décadas, gracias a la explosión de datos y a los procesadores avanzados GPU, las redes neuronales adquirieron gran protagonismo, por los espectaculares resultados que obtenían en el reconocimiento de imágenes, llegando en pocos años a mejorar la tasa de error de los algoritmos tradicionales de machine learning, e incluso a los seres humanos. 

Esto dio lugar a lo que se conoce como Aprendizaje Profundo o Deep Learning (DL), sistemas inspirados en la estructura del cerebro biológico, basados en Redes Neuronales Artificiales (ANN) que simulan el cerebro humano con versiones digitales de las neuronas, sinapsis y fuerzas de conexión entre estas.  

Las Redes Neuronales se basan en estructuras de múltiples capas de neuronas digitales interconectadas que son entrenadas, sin la necesidad de ingenieros de datos que ajusten parámetros, mediante la “ingestión” de cantidades muy grandes de datos de entrenamiento. El deep learning es un subconjunto del machine learning.

 

Fuente: IBM Developer

 

Sin embargo, aunque las redes neuronales son, en gran parte, la clave de los grandes avances en Inteligencia Artificial de la última década, estamos aún muy lejos de llegar al nivel de computación del cerebro humano, fundamentalmente, porque aún desconocemos muchas cosas de este.

 

Siempre he estado convencido de que la única forma de conseguir que la IA funcione es hacer el cálculo de forma similar al cerebro humano. Todavía tenemos mucho que aprender sobre el funcionamiento real del cerebro". 

Geoffrey Hinton. Científico IA

 

Geoffrey Hinton, pionero de la inteligencia artificial, que acaba de abandonar Google, está de actualidad por sus advertencias sobre la IA. Hinton, que ayudó a crear el deep learning, ha advertido sobre el mal uso de esta tecnología y la generación de contenido falso, tanto fotos como vídeos y artículos, aseverando que ya no seremos capaces de saber qué es verdad. El experto incluso va más allá y predice que la inteligencia artificial suplantará a los humanos en cierto tipo de trabajos y podría controlar nuestras vidas dentro de 5 a 20 años.

 

 

Fuente: Twitter.

 

Aunque el padrino de la inteligencia artificial confía en que los humanos seremos capaces de gestionar todos los cambios que está produciendo la IA de forma correcta y no abrirle la puerta a una tecnología como Skynet, de Terminator, que pueda exterminar a los humanos y hacerse con el control mundial. Solo el tiempo dirá si la ficción supera a la realidad. Esperemos que no.