Temas acerca de Inteligencia Artificial
Foto de Usuario
jfrancop

Ranking Troomes
Mensajes: 3
Registrado: 05 Jun 2020, 18:32

Análisis de opiniones en tiempo real de Twitter usando Deep Learning (Keras)

Mensaje por jfrancop » 16 Ago 2020, 23:31

Título:
  • Real Time Sentiment Analysis On Twitter Data Using Deep Learning(Keras)
Descripción
  • Resumen
  • En este estudio se aborda el análisis de la opinión en tiempo real, en este caso la plataforma social Twitter, con la idea de conocer la opinión positiva o negativa de las personas sobre algún tema, como alguna marca, película, juego, política, etc. Se hizo uso de lenguaje de programación python, librerias necesarias para usar deep learning, se utilizo como dataset los mensajes de las personas por medio de una API.
  • Descripción del problema
  • En estos tiempos donde la información es muy importante para la toma de decisiones, en las redes sociales se generan gran volumen de opiniones sobre diferentes tópicos, información relevante para empresas, organizaciones, partidos políticos, etc. Es necesario crear una herramienta capas de procesar miles de opiniones de las personas, y poder obtener la opinión positiva o negativa de un tema en especifico.
  • Algoritmos
  1. NLP: El Procesamiento del Lenguaje Natural (NLP por sus siglas en inglés) es el campo de estudio que se enfoca en la comprensión mediante ordenador del lenguaje humano. Abarca parte de la Ciencia de Datos, Inteligencia Artificial (Aprendizaje Automático) y la lingüística. En NLP las computadoras analizan el leguaje humano, lo interpretan y dan significado para que pueda ser utilizado de manera práctica. Usando NLP podemos hacer tareas como resumen automático de textos, traducción de idiomas, extracción de relaciones, Análisis de sentimiento, reconocimiento del habla y clasificación de artículos por temáticas.
  2. DEEP LEARNING:El Deep Learning o aprendizaje profundo se define como un algoritmo automático estructurado o jerárquico que emula el aprendizaje humano con el fin de obtener ciertos conocimientos. Los algoritmos que componen un sistema de aprendizaje profundo se encuentra en diferentes capas neuronales compuestas por pesos (números). El aprendizaje profundo es parte de un conjunto más amplio de métodos de aprendizaje automático basados en asimilar representaciones de datos. Una observación (por ejemplo, una imagen) puede ser representada en muchas formas (por ejemplo, un vector de píxeles), pero algunas representaciones hacen más fácil aprender tareas de interés (por ejemplo, "¿es esta imagen una cara humana?") sobre la base de ejemplos, y la investigación en esta área intenta definir qué representaciones son mejores y cómo crear modelos para reconocer estas representaciones.
  3. WORD2VEC:Utiliza un modelo de red neuronal para aprender asociaciones de palabras de un gran corpus de texto. Una vez entrenado, dicho modelo puede detectar palabras sinónimas o sugerir palabras adicionales para una oración parcial. Como su nombre lo indica, word2vec representa cada palabra distinta con una lista particular de números llamada vector. Los vectores se eligen cuidadosamente de modo que una función matemática simple (la similitud del coseno entre los vectores) indique el nivel de similitud semántica entre las palabras representadas por esos vectores.
Resultados
  • La clasificación de la opinión sobre un tema, denominado TOKEN se dio en los siguientes pasos: Hacer uso del API para obtener los mensajes, recorrer cada mensaje por TOKEN, procesar, eliminar inconsistencias en los mensajes, convertir letras a vectores y entrenar la Neural Network, pudiendo obtener clasificacion positiva y negativa del tema de tendencia.
Imagen
Herramientas y librerías
  1. SCI-KIT LEARN LIBRARY:Es una libreria gratuita para Python. Cuenta con algoritmos de clasificación, regresión, clustering y reducción de dimensionalidad.
  2. PYTHON 3.7:Es un lenguaje de programación que está disponible y resuelve un problema informático de forma más sencilla.
  3. NATURAL LANGUAGE PROCESSING TOOLKIT:Es una biblioteca en Python que interpreta el lenguaje humano para la NLP
  4. KERAS:Es una biblioteca de Redes Neuronales de Código Abierto escrita en Python. Es capaz de ejecutarse sobre TensorFlow, Microsoft Cognitive Toolkit o Theano.?Está especialmente diseñada para posibilitar la experimentación en más o menos poco tiempo con redes de Aprendizaje Profundo
  5. TENSORFLOW:Es una biblioteca de código abierto para aprendizaje automático a través de un rango de tareas, y desarrollado por Google para satisfacer sus necesidades de sistemas
  6. THEANO:Es una biblioteca de Python y un compilador optimizador para manipular y evaluar expresiones matemáticas, especialmente las de valor matricial.
  7. PLAIDML:Es un compilador de tensor portátil. Los compiladores de tensor cierran la brecha entre las descripciones matemáticas universales de las operaciones de aprendizaje profundo, como la convolución, y el código específico de la plataforma y el chip necesarios para realizar esas operaciones con un buen rendimiento
Conclusiones:
  • El desarrollo y uso de las herramientas mencionadas permitió conocer la opinión negativa o positiva sobre diferentes temas, es posible expandir a futuro el sistema a la lectura de mensajes de otras plataformas sociales como facebook o reddit, el resultado puede ser expresado en gráficos pie o barras, siendo posible su entendimiento y posterior toma de decisión.
Referencias:


Responder