Tendencias21

Los “análisis de opinión” para Internet se vuelven más profundos

Los últimos avances en ‘análisis de opinión’ revelan una tendencia hacia un análisis de contenido más profundo y orientado a estructuras más amplias distribuidas en tres niveles: léxico, oracional y discursivo. Esto implica no solo traspasar el punto de inflexión hacia una segunda generación de herramientas para el análisis de opinión, sino también entrar en una nueva era del análisis de contenido en la Red. Por Antonio Moreno Sandoval.

Los “análisis de opinión” para Internet se vuelven más profundos

Históricamente las organizaciones e instituciones han centrado gran parte de sus esfuerzos e intereses en conocer la opinión de los usuarios sobre sus productos, servicios o marcas.

Hasta hace relativamente poco, la manera de conocer esa información era a través de encuestas y estudios de mercado, sin embargo estos medios adolecían de una escasa inmediatez. Hoy en día, esa información se obtiene directamente de la Red, lo que implica que se recibe con mayor rapidez y espontaneidad, pero también con una acusada ausencia de organización y estructura de los datos vertidos.

Las primeras aplicaciones comerciales dedicadas al análisis de contenido, opinión y sentimiento de los comentarios vertidos en Internet datan de 2008 —su desarrollo teórico había comenzado mucho antes, hace ya 15 años— y consistían en un análisis superficial a partir de una monitorización básica. A día de hoy, el análisis de la información de las redes sociales ha evolucionado y presenta dos tendencias principales:

Monitorización. En primer lugar tenemos la monitorización. Las empresas pueden utilizar herramientas para escuchar lo que se dice sobre su marca, ya sea desde su página oficial, las redes sociales como Facebook, Twitter o los blogs.

Por un lado, es evidente que a mayor cobertura (número de canales monitorizados), mayor cantidad de información se puede obtener, pero también mayor cantidad de «ruido», pues el volumen de datos no relevantes se incrementa.

Por otro lado, obtenemos una precisión (porcentaje de acierto de las valoraciones) bastante pobre, puesto que el contenido se mide únicamente a través de valoraciones de «positivo/negativo», o mediante la detección de palabras clave. Además, en muchas ocasiones, detectar estas palabras presenta la limitación de que no están incluidas en los diccionarios desarrollados por los lingüistas para la herramienta, y solo ellos pueden incorporarlas, no el usuario.

Para compensar esta falta de precisión, algunas empresas están incorporando de forma progresiva aspectos complementarios, como presentaciones gráficas mejoradas en forma de dashboards (cuadros de control), herramientas para generar informes, configuraciones de alertas para la detección rápida de crisis de marca, o búsquedas parametrizadas, con el objetivo de hacer la herramienta más flexible y adaptable a posibles contingencias.

Con todo, estos complementos, pese a ser funcionalidades muy apreciadas por los responsables de comunicación y marketing, se limitan a un nivel léxico muy básico. A lo sumo, consiguen hacer un análisis de contenido superficial, basado en las interacciones en la red. Esto proporciona información sobre los usuarios y sus relaciones, pero ofrece un análisis semántico todavía muy limitado.

Análisis de contenido. Aquí es donde surge la segunda generación o segunda tendencia del mercado en lo que a análisis de opinión se refiere: el análisis de contenido. El enfoque hacia el análisis semántico está evolucionando de la mera medición de mensajes positivos, negativos y neutros (polaridad de los mensajes) a la detección de tendencias de compra o de temas relevantes para los medios de comunicación.

El análisis de contenido está sujeto a la evaluación de la cobertura, entendida como el número de menciones relevantes de una marca, más la evaluación de la precisión con que se mide el acierto en dicho análisis.

Con respecto a la cobertura, esta depende del número de canales monitorizados y de la capacidad para no perder dichas menciones. Pero, como ocurría con la primera generación, relativa a la monitorización, a mayor cobertura, mayor generación de ruido.

Avances en la precisión

En cuanto a la precisión, el análisis de contenido presenta todavía grandes desafíos. Mensajes ambiguos que pueden tener diferentes interpretaciones o factores lingüísticos como la ironía o el uso figurado hacen que el acierto no sea del 100%.

Alcanzar este porcentaje implica no solo seleccionar mensajes apropiados para ese tipo de búsquedas ambiguas, sino también aplicar filtros que requieren destreza y habilidad para usar la herramienta, lo que en la práctica puede restarles utilidad.

Aun así, se están produciendo grandes avances respecto a los problemas de precisión, a través de mejoras en el motor de análisis semántico, centrándose no solo en el nivel léxico sino también en el oracional y en el discursivo.

Para entender el contenido al completo es necesario realizar un análisis en los sucesivos niveles. El acierto en la interpretación dependerá de forma decisiva de contar con módulos especializados que traten los tres aspectos semánticos.

La tecnología que se esconde detrás del análisis de contenido trata de superar dos grandes paradigmas, uno relacionado con recursos léxicos y, otro, con técnicas de aprendizaje automático.
Por una parte, en lo que respecta a los recursos léxicos, basados en búsquedas de palabras que tengan asignadas alguna polaridad, surge de nuevo la limitación que se encontraba en la monitorización: no pueden analizarse los mensajes cuyas palabras no estén incluidas en los diccionarios de la herramienta.

Por otra parte, las aplicaciones basadas en aprendizaje automático usan modelos que están entrenados con ejemplos analizados por personas que anotan su valor como positivo o negativo. Sin embargo, requieren una actualización constante de datos etiquetados, ya que el lenguaje y el vocabulario utilizados varían de un medio a otro, o entre diferentes dominios temáticos.

Hacia dónde vamos

En la actualidad hay una clara conciencia de que los sistemas de análisis de opinión de primera generación han llegado a un punto donde ya no se puede avanzar más, lo que impide la posibilidad de futuras mejoras.

No es cuestión de permitir al usuario "entrenar" nuevos datos o incluir nuevas entradas al diccionario. Sencillamente hay que abordar ese procesamiento en tres niveles; es decir, avanzar hacia una tecnología semántica profunda que no esté centrada en las palabras, sino en estructuras más amplias.

Asimismo, se debe apostar por «nubes de palabras» más ricas, que agrupen términos más complejos y que, además, se relacionen con otras entidades y personas, ya que el objetivo es tratar de ayudar a descubrir el significado oculto mediante las interrelaciones conceptuales.

Todo ello, además, debe ir integrado dentro de una herramienta sencilla de usar, que permita generar informes gráficos atractivos y proporcione acceso directo a los mensajes. Ha empezado la nueva era del análisis de contenido en la Red.

Sobre el autor

Antonio Moreno Sandoval es Investigador senior del grupo Social Business Analytics en el Instituto de Ingeniería del Conocimiento (IIC) y profesor titular de la Universidad Autónoma de Madrid (UAM) en el Área de Lingüística General de la Facultad de Filosofía y Letras.

Es director del Laboratorio de Lingüística Informática e investigador principal de dicho grupo de investigación reconocido por la UAM. Asimismo ha ejercido como investigador en el Centro Científico de IBM España, en la New York University y en la Cátedra de Lingüística de la Universität Augsburg.

Referencias bibliográficas:

B. Pang y L. Lee. Opinion Mining and Sentiment Analysis. Foundations and Trends in Information Retrieval (2008). DOI: 10.1561/1500000011.

L. Zhang, R. Ghosh, M. Dekhil, M. Hsu, y B. Liu: Combining Lexicon-based and Learning-based Methods for
Twitter Sentiment Analysis
. Hewlett-Packard Labs Technical Report (2011).

B. Liu. Sentiment Analysis and Opinion Mining. Morgan & Claypool Publishers (2012).

E. Cambria, B. Schuller, Y. Xia y C. Havasi: New Avenues in Opinion Mining and Sentiment Analysis. IEEE Intelligent Systems (2013). DOI: 10.1109/MIS.2013.30.

RedacciónT21

Hacer un comentario

RSS Lo último de Tendencias21

  • ¿El próximo Einstein será un algoritmo? Nace la primera científica artificial que genera conocimiento 2 junio, 2025
    Una inteligencia artificial ha concebido, ejecutado y escrito una investigación original que ha sido aceptada en ACL 2025, uno de los foros científicos más prestigiosos del mundo. Zochi es la primera científica artificial reconocida por la élite.
    EDUARDO MARTÍNEZ DE LA FE/T21
  • Crean un "hormigón viviente" que se repara a sí mismo 2 junio, 2025
    Un equipo de investigadores ha desarrollado un tipo de concreto que puede curarse a sí mismo aprovechando el poder del liquen sintético. Mejora notablemente intentos anteriores de producir hormigón "vivo" hecho con bacterias, ya que el nuevo material logra ser completamente autosuficiente.
    Redacción T21
  • El eco cuántico del cerebro: ¿estamos entrelazados con nuestros pensamientos? 2 junio, 2025
    El entrelazamiento cuántico, la "acción fantasmal a distancia" que tanto intrigó a Einstein, podría no ser solo una rareza del microcosmos, sino que tendría un eco medible en los procesos cognitivos inconscientes mediante un aparente fenómeno “supercuántico”.
    EDUARDO MARTÍNEZ DE LA FE/T21
  • Un enorme desierto en Asia se está transformando en un vergel gracias al cambio climático 1 junio, 2025
    Los hallazgos de un nuevo estudio muestran que la ecologización del desierto de Thar ha sido impulsada principalmente por más lluvias durante las temporadas de monzones de verano, un aumento del 64% en las precipitaciones en general por el cambio climático y, en segundo lugar, por la infraestructura de riego que lleva el agua subterránea […]
    Pablo Javier Piacente / T21
  • La NASA está observando una enorme y creciente anomalía en el campo magnético de la Tierra 31 mayo, 2025
    La NASA está haciendo un seguimiento detallado de la "abolladura" o "bache" en el campo magnético terrestre descubierta en 1961, que crece rápidamente y podría ser el preludio de una inversión geomagnética: ocurre cuando los polos magnéticos norte y sur intercambian posiciones.
    EDUARDO MARTÍNEZ DE LA FE/T21
  • Los árboles pueden predecir las erupciones volcánicas 30 mayo, 2025
    La NASA, en colaboración con el Instituto Smithsonian, en Estados Unidos, está desarrollando nuevos métodos para anticipar erupciones volcánicas. Cuando el magma asciende a la superficie libera dióxido de carbono, y los árboles cercanos que absorben ese gas se vuelven más verdes y frondosos. Satélites como Landsat 8 vigilan la vegetación en zonas volcánicas, captando […]
    Pablo Javier Piacente / T21
  • Los delfines se ponen nombres "en clave" 30 mayo, 2025
    Un nuevo estudio ha identificado que los delfines no solo se dan nombres para reconocerse, sino que además estas denominaciones podrían esconder información secreta o "en clave", que estaría ligada a los sistemas sociales que sustentan el equilibrio de sus comunidades.
    Pablo Javier Piacente / T21
  • Sorprenden a una “estrella araña” devorando a su compañera 30 mayo, 2025
    Una colaboración internacional de astrónomos ha identificado un extraño sistema estelar en el que un púlsar conocido como “estrella araña” devora material de su estrella compañera, en un hallazgo que representa un eslabón perdido en la evolución de sistemas binarios compactos. 
    Redacción T21
  • Planetas a la deriva: el origen caótico de los mundos lejanos respalda la existencia del Planeta Nueve 30 mayo, 2025
    En los márgenes más remotos de los sistemas planetarios, gigantes invisibles orbitan en silencio. Un nuevo modelo sugiere que estos mundos distantes son productos inevitables del caos primordial que reina cuando las estrellas y sus planetas compiten por sobrevivir en los abarrotados viveros estelares. ¿Podría nuestro propio Sistema Solar albergar uno de estos esquivos colosos?
    EDUARDO MARTÍNEZ DE LA FE/T21
  • Unas gafas de realidad mixta devuelven "el mundo entero" a las personas con pérdida parcial de la visión 29 mayo, 2025
    Una técnica desarrollada por oftalmólogos e informáticos canadienses devuelve la visión perdida a personas afectadas por una lesión cerebral, que han sufrido la reducción de gran parte de su campo visual. Las gafas de realidad mixta registran y "proyectan" ese sector que las personas no pueden ver con sus ojos.
    Pablo Javier Piacente / T21