Deep learning

Tabla de contenidos

Resumir con:

El deep learning o aprendizaje profundo es una técnica de aprendizaje automático mediante el cual se le instruye a los ordenadores a completar tareas de igual forma que la mente humana. Es enseñar a las máquinas conocimientos a través de la experiencia, es decir, aprender a partir de ejemplos. 

Por ejemplo, el deep learning es una tecnología indispensable para los vehículos autónomos, ya que les permite reconocer una señal de tráfico o distinguir entre un peatón y una farola. En definitiva, se trata de alcanzar resultados a partir de conocimientos que antes la máquina no tenía.

Mediante el deep learning, un modelo computacional interioriza tareas de clasificación a partir de imágenes, texto o sonido, rozando una rigurosidad sin precedentes que supera en muchas ocasiones las capacidades humanas.

Para poder entrenar a una máquina empleando el deep learning se necesita una cantidad ingente de información etiquetada y validada, además de una GPU con una potencia excelente para poder reducir lo máximo posible el tiempo de aprendizaje de la máquina.

¿Cómo funciona el deep learning?

Los programas informáticos que emplean el deep learning aprenden de la misma manera que un bebé, por ejemplo, aprende a identificar un perro. Los algoritmos en la jerarquía implementan una transformación no linear de la información que reciben y parte de lo aprendido para crear un modelo estadístico como respuesta.

Así pues, solo hay que exponer al programa a muchos inputs hasta que alcance un nivel de exactitud impecable. La acción de proporcionar muchos inputs a un programa o máquina se denomina “iteración”, y es precisamente esta repetición por lo que llamamos a esta disciplina “profunda”.

La única limitación del deep learning es que realmente no puede realmente inventarse nada por sí mismo, sino que se basa totalmente en los datos y en su corrección. Por tanto, los outputs que aporte una máquina mediante el deep learning serán acertados en la medida en la que los inputs sean correctos y objetivos. A su vez, los outputs o predicciones que dé una máquina se circunscriben a los inputs que ha recibido sin ir más allá.

¿Cuál es la diferencia entre deep learning y machine learning?

En el machine learning tradicional, el programador que aporta los inputs ha de ser específico en extremo y llevar al programa prácticamente de la mano para que pueda, por ejemplo, identificar un elemento como un perro en una imagen.

Por su parte, en el deep learning se le muestra al programa una cantidad inmensa de inputs desetiquetados y desestructurados que, a través de miles de iteraciones, procesará en cuestión de minutos para poder identificar y diferenciar las imágenes en las que sale un perro. 

Gracias a algunas innovaciones tecnológicas como el big data o el cloud computing, podemos recopilar los datos suficientes para crear la elevada cantidad de inputs necesarios para el deep learning.

Así pues, el deep learning y el machine learning se diferencian en que el deep learning necesita muchos más recursos que el machine learning, pero es más riguroso y rápido, además de no necesitar supervisión constante por parte de los programadores.

Ejemplos de deep learning

  • Atención al cliente: En las páginas web se están entrenando chatbots a partir de peticiones y respuestas para mejorar la atención al cliente en calidad y rapidez.
  • Generación de texto: Las máquinas y programas están aprendiendo cómo imitar la gramática, léxico y estilo de un texto para replicarlo en un texto totalmente original.
  • Dominio militar: El deep learning se está empleando para detectar zonas seguras y no seguras.
  • Diseño: Con el deep learning las fotos en blanco y negro pueden colorearse, algo que presuponía antes una ardua labor.
  • Medicina: En oncología se está implementando el deep learning para diferenciar las células cancerosas de las no cancerosas.

Compartir en:

Artículos relacionados

Applet

Un applet es un pequeño programa que se ejecuta dentro de otra aplicación, típicamente un navegador web. Los applets están escritos en el lenguaje de programación Java y se utilizan para proporcionar funcionalidades interactivas y dinámicas en páginas web. A diferencia de las

Open Map Bump

El término Open Map Bump se refiere a una técnica ampliamente utilizada en gráficos por computadora para simular detalles superficiales en una textura sin incrementar la complejidad geométrica de un modelo 3D. Es una evolución del clásico bump mapping, que utiliza mapas de

Latencia

Aunque parezca que la conexión a Internet sea instantánea, no lo es tanto, ya que los datos deben hacer un recorrido cuya duración se denomina latencia de red. La latencia es el tiempo medio que mide la velocidad a la que viajan los datos

Concurrencia

La concurrencia se refiere a la capacidad de un sistema para ejecutar múltiples tareas simultáneamente. Por lo que la concurrencia es una característica esencial que permite a los desarrolladores crear aplicaciones que pueden realizar varias operaciones al mismo tiempo, mejorando así el rendimiento

Scroll al inicio