Tendencias21

Los “análisis de opinión” para Internet se vuelven más profundos

Los últimos avances en ‘análisis de opinión’ revelan una tendencia hacia un análisis de contenido más profundo y orientado a estructuras más amplias distribuidas en tres niveles: léxico, oracional y discursivo. Esto implica no solo traspasar el punto de inflexión hacia una segunda generación de herramientas para el análisis de opinión, sino también entrar en una nueva era del análisis de contenido en la Red. Por Antonio Moreno Sandoval.

Los “análisis de opinión” para Internet se vuelven más profundos

Históricamente las organizaciones e instituciones han centrado gran parte de sus esfuerzos e intereses en conocer la opinión de los usuarios sobre sus productos, servicios o marcas.

Hasta hace relativamente poco, la manera de conocer esa información era a través de encuestas y estudios de mercado, sin embargo estos medios adolecían de una escasa inmediatez. Hoy en día, esa información se obtiene directamente de la Red, lo que implica que se recibe con mayor rapidez y espontaneidad, pero también con una acusada ausencia de organización y estructura de los datos vertidos.

Las primeras aplicaciones comerciales dedicadas al análisis de contenido, opinión y sentimiento de los comentarios vertidos en Internet datan de 2008 —su desarrollo teórico había comenzado mucho antes, hace ya 15 años— y consistían en un análisis superficial a partir de una monitorización básica. A día de hoy, el análisis de la información de las redes sociales ha evolucionado y presenta dos tendencias principales:

Monitorización. En primer lugar tenemos la monitorización. Las empresas pueden utilizar herramientas para escuchar lo que se dice sobre su marca, ya sea desde su página oficial, las redes sociales como Facebook, Twitter o los blogs.

Por un lado, es evidente que a mayor cobertura (número de canales monitorizados), mayor cantidad de información se puede obtener, pero también mayor cantidad de «ruido», pues el volumen de datos no relevantes se incrementa.

Por otro lado, obtenemos una precisión (porcentaje de acierto de las valoraciones) bastante pobre, puesto que el contenido se mide únicamente a través de valoraciones de «positivo/negativo», o mediante la detección de palabras clave. Además, en muchas ocasiones, detectar estas palabras presenta la limitación de que no están incluidas en los diccionarios desarrollados por los lingüistas para la herramienta, y solo ellos pueden incorporarlas, no el usuario.

Para compensar esta falta de precisión, algunas empresas están incorporando de forma progresiva aspectos complementarios, como presentaciones gráficas mejoradas en forma de dashboards (cuadros de control), herramientas para generar informes, configuraciones de alertas para la detección rápida de crisis de marca, o búsquedas parametrizadas, con el objetivo de hacer la herramienta más flexible y adaptable a posibles contingencias.

Con todo, estos complementos, pese a ser funcionalidades muy apreciadas por los responsables de comunicación y marketing, se limitan a un nivel léxico muy básico. A lo sumo, consiguen hacer un análisis de contenido superficial, basado en las interacciones en la red. Esto proporciona información sobre los usuarios y sus relaciones, pero ofrece un análisis semántico todavía muy limitado.

Análisis de contenido. Aquí es donde surge la segunda generación o segunda tendencia del mercado en lo que a análisis de opinión se refiere: el análisis de contenido. El enfoque hacia el análisis semántico está evolucionando de la mera medición de mensajes positivos, negativos y neutros (polaridad de los mensajes) a la detección de tendencias de compra o de temas relevantes para los medios de comunicación.

El análisis de contenido está sujeto a la evaluación de la cobertura, entendida como el número de menciones relevantes de una marca, más la evaluación de la precisión con que se mide el acierto en dicho análisis.

Con respecto a la cobertura, esta depende del número de canales monitorizados y de la capacidad para no perder dichas menciones. Pero, como ocurría con la primera generación, relativa a la monitorización, a mayor cobertura, mayor generación de ruido.

Avances en la precisión

En cuanto a la precisión, el análisis de contenido presenta todavía grandes desafíos. Mensajes ambiguos que pueden tener diferentes interpretaciones o factores lingüísticos como la ironía o el uso figurado hacen que el acierto no sea del 100%.

Alcanzar este porcentaje implica no solo seleccionar mensajes apropiados para ese tipo de búsquedas ambiguas, sino también aplicar filtros que requieren destreza y habilidad para usar la herramienta, lo que en la práctica puede restarles utilidad.

Aun así, se están produciendo grandes avances respecto a los problemas de precisión, a través de mejoras en el motor de análisis semántico, centrándose no solo en el nivel léxico sino también en el oracional y en el discursivo.

Para entender el contenido al completo es necesario realizar un análisis en los sucesivos niveles. El acierto en la interpretación dependerá de forma decisiva de contar con módulos especializados que traten los tres aspectos semánticos.

La tecnología que se esconde detrás del análisis de contenido trata de superar dos grandes paradigmas, uno relacionado con recursos léxicos y, otro, con técnicas de aprendizaje automático.
Por una parte, en lo que respecta a los recursos léxicos, basados en búsquedas de palabras que tengan asignadas alguna polaridad, surge de nuevo la limitación que se encontraba en la monitorización: no pueden analizarse los mensajes cuyas palabras no estén incluidas en los diccionarios de la herramienta.

Por otra parte, las aplicaciones basadas en aprendizaje automático usan modelos que están entrenados con ejemplos analizados por personas que anotan su valor como positivo o negativo. Sin embargo, requieren una actualización constante de datos etiquetados, ya que el lenguaje y el vocabulario utilizados varían de un medio a otro, o entre diferentes dominios temáticos.

Hacia dónde vamos

En la actualidad hay una clara conciencia de que los sistemas de análisis de opinión de primera generación han llegado a un punto donde ya no se puede avanzar más, lo que impide la posibilidad de futuras mejoras.

No es cuestión de permitir al usuario "entrenar" nuevos datos o incluir nuevas entradas al diccionario. Sencillamente hay que abordar ese procesamiento en tres niveles; es decir, avanzar hacia una tecnología semántica profunda que no esté centrada en las palabras, sino en estructuras más amplias.

Asimismo, se debe apostar por «nubes de palabras» más ricas, que agrupen términos más complejos y que, además, se relacionen con otras entidades y personas, ya que el objetivo es tratar de ayudar a descubrir el significado oculto mediante las interrelaciones conceptuales.

Todo ello, además, debe ir integrado dentro de una herramienta sencilla de usar, que permita generar informes gráficos atractivos y proporcione acceso directo a los mensajes. Ha empezado la nueva era del análisis de contenido en la Red.

Sobre el autor

Antonio Moreno Sandoval es Investigador senior del grupo Social Business Analytics en el Instituto de Ingeniería del Conocimiento (IIC) y profesor titular de la Universidad Autónoma de Madrid (UAM) en el Área de Lingüística General de la Facultad de Filosofía y Letras.

Es director del Laboratorio de Lingüística Informática e investigador principal de dicho grupo de investigación reconocido por la UAM. Asimismo ha ejercido como investigador en el Centro Científico de IBM España, en la New York University y en la Cátedra de Lingüística de la Universität Augsburg.

Referencias bibliográficas:

B. Pang y L. Lee. Opinion Mining and Sentiment Analysis. Foundations and Trends in Information Retrieval (2008). DOI: 10.1561/1500000011.

L. Zhang, R. Ghosh, M. Dekhil, M. Hsu, y B. Liu: Combining Lexicon-based and Learning-based Methods for
Twitter Sentiment Analysis
. Hewlett-Packard Labs Technical Report (2011).

B. Liu. Sentiment Analysis and Opinion Mining. Morgan & Claypool Publishers (2012).

E. Cambria, B. Schuller, Y. Xia y C. Havasi: New Avenues in Opinion Mining and Sentiment Analysis. IEEE Intelligent Systems (2013). DOI: 10.1109/MIS.2013.30.

RedacciónT21

Hacer un comentario

RSS Lo último de Tendencias21

  • El océano se está desgarrando 26 marzo, 2024
    2.000 terremotos en un día en Canadá insinúan el nacimiento de una nueva corteza oceánica frente a la costa de la isla de Vancouver: está a punto de nacer a través de una ruptura magmática en las profundidades del mar.
    Pablo Javier Piacente
  • Simulan una explosión termonuclear en un superordenador 26 marzo, 2024
    Una simulación por superordenador nos brinda nuevos conocimientos sobre el comportamiento de las estrellas de neutrones: al evocar la explosión termonuclear que tiene lugar cuando estos monstruos cósmicos devoran a otra estrella, los investigadores logran avanzar en la comprensión de los fenómenos más extremos que suceden en el cosmos.
    Pablo Javier Piacente
  • Las matemáticas tienen la clave para erradicar el machismo 26 marzo, 2024
    Las matemáticas demuestran que si una parte significativa de las mujeres de una población (superando el límite del 45%) se comporta solidariamente con otras mujeres (como si fuesen hermanas), el machismo se extingue.
    Alicia Domínguez y Eduardo Costas (*)
  • El cerebro nos invita a soñar despiertos y luego nos rescata del ensueño 26 marzo, 2024
    El cerebro dispone de un doble mecanismo que, por un lado, nos inspira la creatividad provocando que soñemos despiertos, y por otro, nos devuelve a la realidad para sacarnos de la divagación inútil.
    Redacción T21
  • Las ondas cerebrales se mueven en direcciones opuestas para crear recuerdos y luego para recuperarlos 25 marzo, 2024
    Los científicos descubrieron que las ondas cerebrales tendían a moverse desde la parte posterior del cerebro hacia el frente mientras las personas guardaban algo en su memoria. Por el contrario, cuando buscaban recordar la misma información, esas ondas se movían en la dirección opuesta, desde el frente hacia la parte posterior del cerebro.
    Pablo Javier Piacente
  • Descubren una de las estrellas más antiguas del Universo muy cerca de la Vía Láctea 25 marzo, 2024
    La estrella LMC 119 fue apreciada en la Gran Nube de Magallanes, muy cerca de la Vía Láctea, y es la primera estrella de la segunda generación de formación estelar del Universo que se ha identificado en otra galaxia. Esta estrella, una de las más antiguas en el cosmos descubiertas hasta hoy, proporciona una ventana […]
    Pablo Javier Piacente
  • ¿En qué se parece la AMOC a la construcción de la personalidad? 25 marzo, 2024
    Nuestra personalidad puede verse afectada por el deshielo del Ártico porque hay un paralelismo simbólico entre las corrientes oceánicas que regulan el clima y los comportamientos humanos: si seguimos sus patrones, favorecemos la ética en la gestión de las empresas.
    Edita Olaizola (*)
  • La inteligencia colectiva de las plantas forma los misteriosos círculos de hadas de los desiertos 25 marzo, 2024
    Los misteriosos círculos de hadas presentes en los desiertos de al menos 15 países se forman porque las plantas ejercen una forma de inteligencia colectiva para aprovechar los recursos hídricos profundos del terreno, creando las zonas muertas para la vida vegetal que han intrigado a los científicos durante décadas.
    Eduardo Martínez de la Fe
  • Los africanos usaban arcos y flechas hace 74 mil años 24 marzo, 2024
    El uso se arcos y flechas se ha constatado en africanos hace 74.000 años: dejaron constancia de armas puntiagudas usadas para la caza y, después de la erupción del supervolcán Toba en Indonesia que provocó una sequía, también para pescar en un río etíope.
    N+1/T21
  • Descubren al delfín de río más grande de la historia 23 marzo, 2024
    Un equipo de científicos ha descubierto en la Amazonía peruana los fósiles del delfín de río más grande de la Tierra. Era un pariente cercano de los delfines asiáticos y no de los delfines amazónicos que hoy habitan las aguas dulces de América del Sur.
    N+1/T21