No hay informaciones mejores que otras, el poder consiste en ficharlas todas, y después buscar conexiones.
Humberto Eco. El Péndulo de Focault…
La Habana, Cuba. – Estas redes son un modelo computacional vagamente inspirado en el comportamiento observado en su homólogo biológico. Consiste en un conjunto de unidades de software, llamadas neuronas artificiales, conectadas entre sí para transmitirse señales. La información de entrada atraviesa la red neuronal (donde se somete a diversas operaciones) produciendo valores de salida.
Cada “neurona” está conectada con otras a través de enlaces, en los que el valor de salida de la neurona anterior es multiplicado por un valor de peso, los cuales pueden incrementar o disminuir el estado de activación de las “neuronas” adyacentes. Del mismo modo, a la salida de cada “neurona”, existe una función que impone un límite que se debe sobrepasar antes de propagarse a otra “neurona”.
Esos sistemas aprenden por sí mismos, en lugar de ser programados de forma explícita, y sobresalen en áreas donde la detección de soluciones o características es difícil de expresar con la programación convencional. Los valores de los pesos de las neuronas se actualizan buscando reducir el valor de la función de pérdida. El objetivo de la red neuronal es resolver los problemas de la misma manera que el cerebro humano.
Las redes neuronales se han utilizado para resolver una amplia variedad de tareas, como la visión por computadoras y el reconocimiento de voz, las cuales son difíciles de resolver usando la programación ordinaria basada en reglas. Históricamente, el uso de modelos de redes neuronales marcó un cambio de dirección, de alto nivel, a finales de los años ochenta, que se caracteriza por sistemas expertos con conocimiento incorporado en el formato “si se cumple la condición, entonces aplique la regla”.
Entre las principales áreas de aplicación se incluyen: la identificación de sistemas y el control, utilizado para la predicción de trayectorias, control de vehículos, el control de procesos y manejo de recursos naturales; juegos y toma de decisiones, empleado en la programación de juegos de ajedrez, póquer y go por computadora; el reconocimiento de patrones, empleado en sistemas de radar, reconocimiento facial, clasificación de señales y reconocimiento de objetos;el reconocimiento de secuencia, empleado en software de reconocimiento de gesto, de voz, o de texto escrito a mano; diagnóstico médico;las aplicaciones financieras; la minería de datos; la traducción automática.
Las redes neuronales artificiales se han utilizado también para el diagnóstico de varios tipos de cáncer. Un sistema de detección de cáncer de pulmón híbrido basado en redes neuronales ha mejorado la precisión del diagnóstico y la efectividad del tratamiento. Esas redes también se han utilizado para diagnosticar el cáncer de próstata. Los diagnósticos se pueden utilizar para hacer modelos específicos tomados de un gran grupo de pacientes en comparación con la información de un paciente dado. Las redes neuronales podrían predecir el resultado de un paciente con cáncer colo-rectal con más precisión que los métodos clínicos actuales.
Una rápida mirada a los antecedentes; Warren McCulloch y Walter Pitts crearon en 1943 un modelo informático para redes neuronales, que se llamó lógica umbral, basada en las matemáticas y los algoritmos. Ese modelo señaló el camino para que la investigación de redes neuronales se dividiera en dos enfoques distintos. Uno se centró en los procesos biológicos en el cerebro y el otro en la aplicación de redes neuronales para la inteligencia artificial.
A finales de la década de 1940 el psicólogo Donald Hebb creó una hipótesis de aprendizaje basado en el mecanismo de plasticidad neuronal, ahora conocido como aprendizaje de Hebb, un “típico” aprendizaje no supervisado. Los investigadores empezaron a aplicar esas ideas a los modelos computacionales en 1948 con la sugerencia de Turing, de que el córtex humano infantil es lo que llamaba “máquina desorganizada” (también conocido como “máquina Turing Tipo B”). Frank Rosenblatt en 1958 creó el perceptrón, un algoritmo de reconocimiento de patrones basado en una red de aprendizaje de computadora de dos capas, que utilizaba suma y restas simples. El primer reporte sobre redes funcionales multicapas fue publicado en 1965 y se conoce como el método de agrupamiento para el manejo de datos. La investigación de redes neuronales se estancó después de la publicación de la investigación de aprendizaje automático por Marvin Minsky y Seymour Papert en 1969, que descubrió algunas cuestiones fundamentales con las computadoras que procesan las redes neuronales.
Un avance clave posterior fue el algoritmo de propagación hacia atrás, el cual resolvió problemas subyacentes. El proceso de propagación hacia atrás utiliza la diferencia entre el resultado producido y el resultado deseado para cambiar los “pesos” de las conexiones entre las neuronas artificiales.
Esfuerzos recientes muestran prometedores resultados en la creación de nanodispositivos para análisis de componentes principales de gran escala. Esto daría paso a una nueva clase de computación neuronal, dependiente del aprendizaje automático, en lugar de la programación.Entre 2009 y 2012, las redes neuronales recurrentes y redes neuronales profundas, desarrolladas por un grupo de investigación del laboratorio suizo de Inteligencia Artificial IDSIA, ganaron ocho concursos internacionales de reconocimiento de patrones y aprendizaje automático. Por ejemplo, se superó el rendimiento humano en puntos de referencia importantes, tales como el reconocimiento de señales de tráfico o el problema de clasificación de dígitos escritos a mano, y ayudar a encontrar moléculas que podrían conducir a nuevos medicamentos.
Hay tres grandes paradigmas de aprendizaje que son el aprendizaje supervisado, el aprendizaje no supervisado y el aprendizaje por refuerzo.
En el aprendizaje supervisado se da una serie de ejemplos de entradas y se desea encontrar una función que se corresponda con los ejemplos dados. Ejemplos del paradigma de aprendizaje supervisado son el reconocimiento de patrones. Esto es similar al aprendizaje con un maestro.
En el aprendizaje no supervisado se dan algunas entradas y la función de costopuede ser cualquier función de los datos a la salida de la red. La función de costo dependerá de la tarea que se trata de modelar, las propiedades del modelo, sus parámetros y las variables observadas. Entre las tareas a resolver por este paradigma están: la estimación de problemas; las aplicaciones que incluyen agrupamientoy la compresión de datos.
En el aprendizaje por refuerzo los datos de entrada por lo general no se dan, éstos se generan por la interacción de un agente con el medio ambiente. El objetivo es descubrir la política que minimice el costo. Esas redes neuronales se aplican a problemas no lineales y multi-dimensionales, tales como los relacionados con el enrutamiento de vehículos, gestión de los recursos naturales o la medicina. Algunas tareas que caen dentro del paradigma de aprendizaje por refuerzo son los problemas de control, juegos y otras secuenciales tareas.
En Cuba, se han ido alcanzando resultados desde los años 90 con el uso de estas herramientas, fundamentalmente en las universidades de La Habana, Tecnológica de La Habana, Cujae y de Las Villas, así como en el Instituto de Cibernética, Matemática y Física, Icimaf, los cuales se han aplicado a diferentes procesos productivos y de servicios.
Ah, recuerden, si me ven en algún lugar, me saludan.