Los datos masivos sin el almacenamiento y el procesamiento adecuado pueden resultar de poca utilidad para las empresas. Para que los datos ostenten valor es necesario recurrir a técnicas de análisis de datos, también conocido como big analytic. De este modo se puede afirmar que la inteligencia artificial (en adelante IA) juega un papel clave en el almacenamiento, procesamiento y uso del big data. En el presente post vamos a estudiar qué es la inteligencia artificial y de qué ramas se compone.
Origen de la inteligencia artificial
A pesar de lo que se pueda pensar, la IA no es una disciplina nueva. Sus orígenes se remontan a mediados de los años 50 del pasado siglo. Aunque los primeros pasos sobre la teoría de la computación se remontan a 1936 de la mano de Alang Turing, se puede afirmar que fueron tres científicos estadounidenses -Marvin Minsky, Claude Sannon y John McCarthy- los que en el verano de 1956 en un curso de dos semanas de la Universidad estadounidense de Darmouth acuñaron el término IA.
Los padres de la IA sólo se equivocaron en una cosa en aquel verano y es que se mostraron extraordinariamente optimistas, predijeron que en menos de diez años la IA iba a estar presente en prácticamente cualquier aspecto de nuestra vida. Sin embargo, la realidad fue otra, en aquella época ni si quiera existía internet.
Una de las ideas de la que se partía en aquel momento es que si los ordenadores podían resolver problemas complejos, problemas que el ser humano no podía resolver, las máquinas también podría resolver aspectos sencillos. Problemas que el ser humano puede solucionar con facilidad. Sin embargo, las investigaciones que se han desarrollado en esta disciplina en más del medio siglo han demostrado que es mucho más complejo. No obstante, desde aquella época han pasado casi 70 años y la realidad es que esas tesis que sostenían los padres de la IA puede que cada vez estén más cerca...
Concepto de IA
El término IA es complejo de definir. Se podría afirmar que se trata de un campo de la ciencia y también de la ingeniería que persigue no sólo entender desde un punto de vista informático un comportamiento inteligente si no también la creación de artefactos que emulan este comportamiento (R. Pino Diez/ A Gómez Gómez/N. Abajo Martínez). Consideramos que la mejor forma de entender qué es la IA es destacando las seis características que se le pueden atribuir a esta disciplina (S.Gómez Sáncha):
1) Emular capacidad del cerebro humano.
2) Capacidad de entender el lenguaje natural.
3) Capacidad de determinar el grado de complejidad de los problemas que se planteen.
4) Capacidad de aprendizaje y mejora.
5) Capacidad de abstracción. Es decir, la posibilidad de trabajar con conceptos en lugar de eventos. En la actualidad este aspecto se encuentra poco desarrollado.
6) Capacidad aleatoria y de creatividad. De la misma manera, en términos generales, en la actualidad, los sistemas de inteligencia artificial no tienen un gran desarrollo de este aspecto.
Por lo tanto, la inteligencia artificial se trataría de la disciplina con la que se pueden desarrollar programas de cómputo inteligente, en definitiva, programas que intentan emular el cerebro humano (S.Gómez Sáncha). Este término es muy amplio, por eso es necesario reseñar que la inteligencia artificial se divide a su vez en diferentes áreas tales como los sistemas expertos, la demostración automática de teoremas, el reconocimiento de la voz y los patrones, la robótica, el machine learning o las redes neuronales entre otras.
¿Qué es un algoritmo?
Otro término importante relacionado con la IA y el big data son los algoritmos. Como ya se ha señalado, sin el correspondiente tratamiento, es decir, sin el algoritmo correspondiente los datos pueden tener escaso valor y potencial. De este modo, por algoritmo debe entenderse las instrucciones que la máquina debe ejecutar para la resolución de un problema.
En términos generales, un algoritmo sería el procedimiento que se crea en base a un conjunto de reglas estructuradas (data inputs) para dar un resultado (M.S.Gal). El algoritmo es la receta de cocina de un plato que queremos elaborar. La regla de multiplicar podría ser un sencillo algoritmo. También nosotros mismos, en nuestro día a día usamos algoritmos no automáticos, ad ex. cuando tenemos que decidir la ropa que debemos usar. En ese caso, utilizamos data inputs (el tiempo que hace, la ocasión o lo cómodo/a que nos queremos sentir) y esos datos los sopesamos en atención a nuestras circunstancias (si tengo que ir a una entrevista de trabajo, debería ir formal y no en chándal, a pesar de que en mi día a día me gusta ir cómodo/a) [M.S.Gal]. Un aspecto importante es que a la máquina no se le dan las instrucciones en lenguaje natural, los programadores deben traducir las reglas en el lenguaje de programación correspondiente.
La realidad es que los algoritmos hoy en día pueden conseguir objetivos espectaculares gracias al deep learning. El deep learning es parte del machine learning, ambas áreas de la inteligencia artificial.
¿Y el machine learning?
El machine learning es la capacidad de la maquina de aprender por sí misma, de autoaprendizaje. En otras palabras, se trata de un área de la inteligencia artificial que consiste en que los sistemas aprendan a realizar tareas que llevan a cabo los humanos y que no pueden programarse como tradicionalmente se ha venido haciendo. Es decir, con programadores introduciendo códigos concretos a las máquinas.
Aquí el término “aprendizaje” debe entenderse como la capacidad de la máquina de poder diferenciar entre imágenes de objetos, de animales o de personas, detectar las diferentes cláusulas que componen un contrato, traducir un texto de un idioma a otro, entre otras muchas. Este proceso de aprendizaje se desarrolla en dos fases: 1)acumulación de datos; 2) entrenamiento de la máquina.
En la primera fase se almacenan una gran cantidad de datos. En función del objetivo perseguido se deben acumular unos datos u otros. Si el objetivo de la máquina es detectar cláusulas problemáticas que se repiten en los contratos de distribución comercial, se deberán acumular muchos contratos de este tipo. Es decir, hay que proporcionarle a la máquina muchos datos.
En la segunda fase se debe diferenciar dos tipos de entrenamiento, estos son: a) el entrenamiento asistido; b) entrenamiento desasistido.
En el primero, el ser humano está detrás, es éste el que enseña a la máquina estableciendo una guía de aprendizaje. En el segundo, “el desasistido”, la máquina debe aprender por sí misma. El ser humano proporciona unas reglas y un objetivo a alcanzar (S.Gómez Sáncha).
Esta parte de la IA es realmente apasionante y prometedora, ya que antes los sistemas estaban programados en base a unas reglas precisas y concretas, por lo que el número de respuestas que podían aportar eran también limitadas. Sin embargo, con estos nuevos softwares las posibilidades de las máquinas van mucho más allá, pudiendo brindar a la sociedad oportunidades ilimitadas. Hoy en día ejemplos no nos faltan. Uno podría ser Alpha Zero, programa que juega al ajedrez, mediante el uso de la inteligencia artificial, el cual fue creado por Deep Mind, propiedad de google.
El programa Deep Blue (propiedad de IBM) supuso un hito y cambio de paradigma a finales de los 90 en cuanto a lo que se conocía en ese momento en relación al desarrollo computacional. Deep Blue se batió en duelo con el campeón de ajedrez Gary Kasparov en 1997. La máquina ganó. Este programa se basaba en reglas, tenía una gran capacidad de análisis en poco tiempo, por lo que antes de realizar la siguiente jugada podía analizar muchas posibilidades. Sin embargo, Deep blue fue derrotado en 2017 por Alpha Zero, un programa que a través del machine learning, juega contra sí mismo y extrae autoaprendizaje de todas las horas de juego que realiza. Esa capacidad de autoaprendizaje le permite una mejora en las estrategias sin límites.
¿Y el deep learning?
No todo machine learning tiene porque incluir técnicas de deep learning. Este último consiste en que el sistema sigue la técnica de machine learning pero usando una red neuronal artificial que se compone de un número de niveles jerárquicos. Las redes neuronales son construcciones matemáticas algebraicas complejas que intentan simular la red neuronal del cerebro humano con el objetivo de emular su funcionamiento (S.Gómez Sancha; I.Goodfellow/ Y.Bengio/ A.Courville). El término “deep” (profundo) es debido a que existen muchas capas de análisis. Básicamente el funcionamiento podría ser el siguiente: en el nivel 1 de jerarquía la red aprende algo simple, una vez aprendido, envía la información al nivel 2. En este segundo nivel, se procesa la información, se combina con otros datos, se compone una información algo más compleja y se remite al nivel 3. Y así sucesivamente. El deep learning presenta un gran potencial debido a que permite su aplicación a grandes volúmenes de datos y poder obtener predicciones a partir de los mismos.
Actualmente las compañías implementan técnicas de deep learning en campos muy variados. Se podrían señalar muchos pero ad ex. queremos destacar los siguientes: 1)Identificar el uso de fármacos ya conocidos a nuevas enfermedades, (en la actualidad se está haciendo para identificar el mejor tratamiento para el Covid-19); 2) Analizar imágenes médicas con el fin de aumentar las posibilidades de diagnóstico en un menor tiempo y con menor coste; 3) la predicción de los gustos de los clientes como vía para personalizar los precios.
El impacto de la IA es una realidad en prácticamente todas las disciplinas, la medicina, la economía, la psicología, el marketing, etc. Yo me voy a centrar en el impacto en el Derecho, pero en particular en las empresas, en el Derecho de los negocios internacionales y el Derecho de la competencia europeo. Nuevos post sobre el análisis de la IA en el ordenamiento jurídico serán publicados muy pronto.
*Bibliografía
-M.S. Gal “Algorithms as Illegal Agreements”, Berkeley Tecnology Law Journal, 2018, pág. 9.disponible en https://papers.ssrn.com/sol3/papers.cfm?abstract_id=3171977.
S.Gómez Sáncha, “Inteligencia Artificial”, en M. Barrios Andrés, Legal Tech. La transformación digital de la abogacía, La Ley Wolters Kluwer, Madrid, 2019.
- Goodfellow, I., Bengio, Y., Courville, A., Deep Learning. MIT Press, 2016.
- S.Navas Navarro, “Derecho e inteligencia artificial desde el diseño. Aproximaciones” en Navas Navarro, S., Inteligencia artificial. Tecnología y Derecho, Tirant lo Blanch, Valencia, 2017.
- R. Pino Diez/ A.Gómez Gómez/N.Abajo Martínez, Introducción a la inteligencia artificial: sistemas expertos, redes neuronales y computación evolutiva, Universidad de Oviedo, 2001.
Comments