INICIO FOROS ÍNDICES DIVISAS MATERIAS PRIMAS CALENDARIO ECONÓMICO

Autor Tema: Más cerca de leer la mente  (Leído 880 veces)

Scientia

  • Administrador
  • Excelente participación
  • ***
  • Mensajes: 37.976
  • Karma: +0/-1
  • Sexo: Femenino
Más cerca de leer la mente
« en: Junio 29, 2011, 08:56:24 pm »
http://www.experientiadocet.com/2009/05/mas-cerca-de-leer-la-mente-ahora-las.html


Más cerca de leer la mente: ahora, las emociones.

Observando el patrón de actividad del cerebro, los cientí­ficos han descubierto que pueden “leer” si una persona está oyendo palabras pronunciadas con enfado, alegrí­a, alivio o tristeza. El estudio, que aparece publicado en Current Biology, es el primero en mostrar que la información emocional está representada por firmas espaciales definidas en el cerebro y, esto es lo interesante, generalizables para las distintas personas que puedan pronunciar esas palabras.

La interpretación correcta de la emoción en la voz es muy importante, especialmente en los entornos actuales en los que la información visual no siempre está presente, como al hablar por telíéfono.

Thomas Ethofer de la Universidad de Ginebra (Suiza), autor principal del estudio, afirma: “Hemos demostrado que el patrón espacial de actividad en el área cerebral que procesa las voces humanas contiene información sobre las emoción expresada”.

Estudios anteriores de neuroimagen habí­an mostrado que las áreas auditivas sensibles a la voz se activan más cuando se expresan emociones vocalmente que cuando se oye un discurso neutro. Sin embargo esta activación era independiente del tipo de emoción expresada, lo que hací­a imposible distinguir entre distintas emociones con análisis convencionales.

En el nuevo estudio, los investigadores hicieron que distintas personas oyeran pseudopalabras (suenan como palabras pero no significan nada) expresadas de cinco formas distintas: con enfado, tristeza, alivio, alegrí­a o sin emoción. Mientras, sus cerebros estaban siendo escaneados con imagen por resonancia magníética funcional (IRMf).

Los resultados fueron analizados aplicando un míétodo llamado análisis multivariado de patrones al patrón espacial completo de la actividad. Habitualmente lo que se analiza es cada punto del cerebro separadamente.

Los resultados fueron concluyentes: podí­an clasificar cada emoción frente a todas las demás alternativas.

Hemos de recordar en este punto el resultado que el año pasado publicó el equipo de Tom Mitchell de la Universidad Carnegie Mellon, según el cual podí­an, tambiíén usando IRMf, saber en quíé palabra estaba pensando un individuo si bien, a diferencia del resultado de Ethofer, era necesario calibrar el análisis para cada individuo.

 A la vista de los avances de la investigación, ¿podremos algún dí­a leer la mente?

 

Más información:

 

“Decoding of Emotional Information in Voice-Sensitive Cortices”; Ethofer et al.; Current Biology, 14 May 2009; doi:10.1016/j.cub.2009.04.054