RSS

Análisis objetivos de captación en tiempo real de audios (TCI) en sesiones controladas: Un estudio piloto.

11 Abr

Por Boccuzzi, M., & Beischel, J. (2011)

En la búsqueda para detectar y comunicar con personas fallecidas (llamados desencarnados) se han desarrollado una amplia gama de herramientas y dispositivos. Las primeras formas de comunicación con los espíritus iban desde el uso de alucinógenos para lograr un estado alterado de consciencia hasta herramientas simples, tales como la tabla que movía un instrumento de escritura a través de papel cuando era tocado por los dedos de los operadores. Como la tecnología ha avanzado, la sofisticación y la complejidad de estos dispositivos de comunicación a variado. Hoy en día, el uso de diferentes tecnologías para facilitar la comunicación e interacción con los fallecidos se conoce como transcomunicación instrumental (TCI).
La TCI se ha definido como “la (trans)comunicación más allá de nuestra realidad a través de instrumentos o dispositivos técnicos “(Cardoso, 2003:1). Específicamente la TCI es el proceso de capturar las voces, imágenes u otros aspectos de las entidades etéreas (Sean desencarnados u otras entidades no corporales) a través del uso de diferentes tecnologías. A diferencia de los métodos más tradicionales que se utilizan para capturar fenómenos electrónicos de voz (EVP) -en el que se dice que las voces aparecen en las grabaciones cuando no hay voces  mientras la grabación se estaba haciendo- algunas técnicas de TCI permiten la retroalimentación inmediata que puede facilitar la comunicación en tiempo real. (Para un análisis exhaustivo de la historia de la EVP y la TCI, ver Barušs, 2001, Butler & Butler, 2004, Fontana, 2005, Laszlo, 2008.)
La Investigación en TCI hasta la fecha ha sido criticada porque:

1) Las conversaciones pueden no recogerse en condiciones controladas por observadores independientes y 2) todos los detalles de los protocolos experimentales no se pueden hacer factibles (por ejemplo, Fontana,2005: 380).

El estudio actual fue diseñado para hacer frente a estas dos preocupaciones y centrado en un método relativamente nuevo que utiliza el EVPMaker, un programa de software libre desarrollado y distribuido por Stephan Bion (2010a). El software de carga una archivo de audio digital de la memoria del ordenador y luego se puede seccionar aleatoriamente en segmentos cortos.
Originalmente, el EVPMaker se utilizó como una fuente aleatoria de fondo ruido durante la grabación para la tradicional EVP. Aunque en este caso, los operadores empezaron a trabajar con el software mediante un archivo de audio especialmente creado que contenía 72 alófonos (elementos del habla a corto) digitalmente generados por el SpeakJet voice and sound synthesizer chip (Magnevation, Capshaw, AL, http: //www.magnevation. com / SpeakJet.swf) para generar “una voz robótica al azar ” (Bion, 2010b).
Los Operadores EVPMaker han afirmado que ellos pueden oír en tiempo real respuestas en la salida del sistema a las preguntas que se preguntan en voz alta cuando se utiliza el EVPMaker más un archivo configurado con SpeakJet (Downey, 2010).
A diferencia de los anteriores métodos en TCI en el que no se utilizó el software, las sesiones el uso de esta configuración proporcionan una nueva oportunidad para el análisis objetivo y científico de comunicación porque se experimenta (1) Una comunicación en tiempo real, (2) En la salida del EVPMaker los archivos pueden ser analizados estadísticamente, y (3) la voz producida durante las sesiones de EVPMaker son consistentes, lo que permite un análisis objetivo con un software de reconocimiento de voz.

En un intento de probar objetivamente la presencia voces en este escenario, el presente estudio analiza las sesiones en TCI en tiempo real registradas por un operador experimentado en el EVPMaker (descrito con más detalle en Materiales y Métodos, en la sección del operador) en la que afirmaba el operador el contacto con una entidad externa.

Grabación con EVPMaker +  SpeakJet Allophone en una sesión TCI.

En su práctica, el operador que participó en este estudio normalmente utiliza dos computadoras para grabar sesiones de TCI. En el primer equipo se ejecuta el software EVPMaker que se ha cargado con un archivo de audio alófono mediante SpeakJet (este produce una serie de alófonos seleccionados al azar escuchados a través de los altavoces del ordenador). El segundo equipo se utiliza para grabar audio de la sesión (incluyendo la salida de EVPMaker y las preguntas o comentarios que pronuncian en voz alta) desde el micrófono de la computadora. Durante la sesión, el operador puede percibir palabras o frases reconocibles (que llamamos expresiones)  “efectuadas” por parte de la entidad contactada en la salida EVPMaker.

Problemas con este método y la necesidad de controles adicionales.

Desde la perspectiva de la investigación, este método de grabación  requiere más controles para asegurarse de que el operador 1) está siguiendo sistemáticamente el método de grabación y 2) no está manipulando los datos. Para abordar estos problemas, los investigadores desarrollaron y sometieron a pruebas preliminares un sistema informático usado como plataforma estandarizada de Recogida de Datos (SDCP) que el operador utiliza durante la grabación de sesiones para este estudio. El SDCP incorpora características de seguridad y el sistema de auditoría permitía que los investigadores verificasen que los protocolos de grabación se habían seguido, y así,  asegurar que la integridad de los datos para cada sesión de grabación no había sido manipulada (una discusión detallada de la SDCP se incluye a continuación).

Optimización de recopilación de datos.

Como se ha señalado anteriormente, “los resultados negativos de un estudio utilizando métodos que no se optimizan adecuadamente en el entorno experimental, y los resultados positivos de un estudio que no maximizan todos los controles posibles son igualmente ineficaces en el establecimiento de nuevos conocimientos científicos” (Beischel, 2007/2008).
Además de los controles enumerados anteriormente, los investigadores incorporaronn los siguientes elementos a fin de asegurar que el estudio proporcionaba las condiciones más favorables para la TCI:

1) Los investigadores no intentaron realizar y grabar sesiones por su cuenta. Las sesiones experimentales fueron grabadas por un operador experimentado que se le permitió grabar la sesión en su “ambiente natural”, sin supervisión o supervisión directa.
2) Al operador se le permitió realizar tantas sesiones como deseaba, sin fecha de finalización específica. Sus instrucciones eran (a) proporcionar a los investigadores con 10 sesiones (que se refiere a las sesiones activas) en la que el operador creía que se produjo la comunicación y (b) Proporcionar a los investigadores los archivos (por ejemplo, la producción de archivos en EVPMaker, grabaciones de audio, y sus transcripciones de las sesiones) de todas las sesiones recogidas, incluso aquellas que no hubieran comunicaciones.
3) Los investigadores no dieron instrucciones de cómo las sesiones debían proceder. Antes del inicio de la recolección de datos, el operador explicó que sus sesiones serían similares en su practica; es decir, que hace una pregunta, espera una respuesta, y luego hace una pregunta nueva o responde a un enunciado que oye en el sistema de salida EVPMaker. Con el fin de no imponer restricciones artificiales en el proceso, los investigadores no dieron instrucciones al titular como para (a) cómo deben estructurarse estas conversaciones, (b) qué tipos de preguntas deberían hacerse, o (c) la información (es decir, verídica o no verídica) debe ser adquirida durante las sesiones. El operador simplemente siguió su propio proceso .

Prueba Objetiva la Presencia en TCI.

Es una suposición implícita en la investigación en TCI que las expresiones reconocibles registradas durante una sesión son el resultado de algún tipo de influencia externa sobre el sistema de grabación. La fuente de esta influencia se asume sobre una entidad externa, como un desencarnado u otra entidad etérea. Explicaciones alternativas incluyen la interacción mente-máquina (por ejemplo, Radin y Utts, 1989) entre el operador y la tecnología utilizada (que en este caso es el EVP Maker), el azar, y pareidolia (la tendencia a interpretar los estímulos vagos o aleatorios como significativo) ( Zusne y Jones, 1989, Banks, 2001). Por lo tanto, la pregunta indiscutible para este estudio es:

¿Se puede detectar objetivamente las presencias en las sesiones en TCI en tiempo real grabados por un operador EVPMaker experimentado con un operador que afirma el contacto exitoso con una entidad externa ?

Con el fin de determinar objetivamente la existencia de las entidades en las sesiones con el EVPMaker y percibidos por el gestor al abordar las explicaciones alternativas anteriormente mencionadas, los investigadores sometieron las sesiones activas a los siguientes análisis:

1. Análisis estadísticos de los alófonos. Es la hipótesis de que si la influencia externa (independientemente de la fuente) estaba afectando las sesiones activas recogidas por el operador, la frecuencia, el número y distribución de los alófonos generados por EVPMaker (que debe ser un proceso aleatorio) se desviaría de expectativa.
2. Panel de escucha ciego con controles emparejados aleatorios. Es la hipótesis de que las cuestiones de pareidolia podrían abordarse mediante la comparación de las interpretaciones de las expresiones de de las sesiones activas, tomando muestras de la salida EVPMaker en sesiones de control en el que no había ningún operador presente.
3. Análisis de contenido de las preguntas y respuestas percibidas por el del operador. Un análisis objetivo en Tiempo Real fue la hipótesis de que debía ocurrir, expresiones identificadas por el operador en las sesiones activas podían ser significativas cuando se analizaran en el contexto de las preguntas que se planteaban.
4. Interpretación automática de enunciados. Uso de reconocimiento de voz del software. Es la hipótesis de que las cuestiones de pareidolia podrían abordarse mediante la eliminación del elemento humano en el proceso de identificar e interpretar los enunciados. Debido a la salida EVPMaker en este estudio utilizaba siempre la misma “voz”, producido por el chip SpeakJet, software de reconocimiento de voz que podría ser entrenado para reconocer la voz SpeakJet y analizar los enunciados en las sesiones activas.

Materiales y Métodos.

La filosofía detrás del desarrollo del protocolo para este estudio hizo hincapié en la necesidad de un estándar abierto, materiales de fácil acceso y software de modo que el estudio podría ser fácilmente replicado por otros investigadores.

Operador

El operador de este estudio fue recomendado por la organización ATransC [anteriormente la Asociación Americana de Fenómenos de Voz Electrónica (AA-EVP)]. El operador es considerado por ATransC como un experto en la recopilación e interpretación en sesiones de comunicación en tiempo real utilizando el EVPMaker y el SpeakJet Allophone .

EVPMaker Software.

EVPMaker versión 2.2 (http://www.stefanbion.de/evpmaker/evpminst.exe) se cargó con la SpeakJet Allophone un archivo de audio (http://www.tonbandstimmen.de/ archivos / SpeakJet / SpeakJetAllophones.wav) como la fuente de sonido. El “EVPMaker divide cualquier grabación de voz en segmentos cortos y luego los reproduce de forma continua en orden aleatorio. El ‘galimatías’ resultante suena como el habla, pero no es entendible (Bion, 2010).

SpeakJet Centro de Actividad y Software.

El SpeakJet Activity Center (SAC) (Magnevation, Capshaw, AL, http: // http://www.magnevation.com/descriptionactivitycenter.htm) es un desarrollo autónomo que se conecta a un ordenador a través del puerto RS232 y se puede enviar códigos de comando para generar grupos de alófonos (es decir, para producir palabras audibles). El  Magnevation software Traductor versión 1.14 se utilizó para gestionar la comunicación entre el equipo host y el SAC y enviar los códigos de comando al chip SpeakJet.

Software Audacity.

Audacity (http://audacity.sourceforge.net/) es un software de código abierto de grabación y edición. Audacity se utilizó en este estudio para aislar muestras de sesión para su uso en el panel de escucha (descrito a continuación) y el reconocimiento de voz analiza software.

Software de Reconocimiento de voz .

Dragon NaturallySpeaking Preferred versión 9  es un Software de reconocimiento de voz (Nuance Communications, Burlington, MA, http://www.nuance.com/ NaturallySpeaking /) se utilizó para analizar la salida EVPMaker. Este paquete de informes de un 99% de precisión, tiene un vocabulario de más de 300.000 palabras, requiere una formación mínima, y ​​fue específicamente diseñado para importar y transcribir audios WAV  producido por el EVPMaker.

La Plataforma de recogida de datos (SDCP).

La Plataforma de recogida de datos (SDCP) se utilizó para recopilar sesiones experimentales con el EVPMaker y guardar la sesión de archivos en un entorno controlado y seguro. El SDCP consistió en un ordenador ultraportátil portátil Eee PC 900 (ASUS, Fremont, CA, http://usa.asus.com) con 320 GB  disco duro USB portátil (Western Digital, Lake Forest, CA, http: // http://www.wdc.com/en/). El único software de aplicación instalado después de su  compra era el  EVPMaker versión 2.2 y los datos alófonos del SpeakJet. El SDCP se entregó en mano al operador por un investigador (autor MB) en el inicio de la recogida de datos. Después de que el sistema fue instalado y el operador entrenado en su uso, el operador lleva a cabo una sesión de prueba con el investigador presente.Según el operador, la comunicación era posible utilizando el SDCP.

El software de seguridad SDCP.

Una de las críticas dirigidas a la investigaciónde TCI es sobre la potencial manipulación del material de origen para que se produzca el resultado deseado. Esto era especialmente preocupante en este estudio dado que los datos fueron recolectados en el domicilio del operador sin observación directa o análisis Objetivo de Tiempo Real ni supervisión por parte de los investigadores. Para asegurar la integridad de los datos, la SDCP estaba equipada con el software de Spector Pro versión 6.0 (SpectorSoft, Vero Beach, FL, http://www.spectorsoft.com) para rastrear las pulsaciones del teclado y eventos del sistema (por ejemplo,clics del ratón, archivos que lee / escribe) que aseguró que los archivos en el SDCP no se alteraban y se seguían los protocolos de grabación; es decir, para protegerlo contra un fraude o error del usuario. Durante el estudio, sólo los investigadores estaban conscientes del tipo de software de seguridad instalado en el SDCP. Además, la conexión inalámbrica transceptora de Internet en el sistema se había desactivado para evitar que el SDCP pudiera ser conectado a Internet durante la recogida de datos. Finalmente, las comparaciones eran realizadas entre los datos que se guardaban en el SDCP y los enviados por correo a los investigadores por el operador (descrito a continuación).

Recopilación de las sesiones de control .

Antes de la recolección de las sesiones activas por parte del operador (descrito más adelante), las sesiones de control en el que no había ningún operador presente se recogieron mediante el SDCP.
La sesiones de control se recogieron primero en caso de que el SDCP fuese dañado durante la recolección de las sesiones activas (por ejemplo, durante el transporte). Además, se expresó preocupación por la organización de la concesión que pudiera ser posible recoger las sesiones de control verdaderas después de que el operador había utilizado el SDCP.
Se teoriza que una vez que el operador había establecido un enlace de comunicación, el SDCP continuaría actuando como una “estación activa”, que seguiría recibiendo la comunicación, incluso en ausencia del  operador, contaminando así los futuros períodos de sesiones.

Procedimiento.

El primer autor (MB) recoge 10 sesiones de control en el SDCP. La configuración del software EVPMaker se realiza para que coincida con los utilizados por el operador en sus sesiones de grabación (por ejemplo, cada sesión fue de tres minutos de duración, y se utiliza la función de generador de números pseudo-aleatorios en EVPMaker). Es importante tener en cuenta que los altavoces del SDCP se apagaron durante la recolección de las sesiones de control, y el investigador no escuchó las sesiones que se registraron. Además, las sesiones nunca han sido y nunca serán escuchadas en su totalidad por cualquier persona. Estas precauciones se tomaron en un intento de disuadir a potenciales contaminaciones  en las sesiones de control. Los 10  archivos de control originales  fueron retirados de la unidad de disco duro externo del SDCP antes de ser entregados al operador.

Recopilación de las sesiones activas con el operador.

Al grabar cada conversación de tres minutos, el operador usa su computadora personal para registrar lo obtenido en la salida del EVPMaker así como sus preguntas orales y comentarios mientras que un segundo equipo (el SDCP) produce y guarda la salida EVPMaker. Se informó en todas las sesiones efectuadas por el operador el contener conversaciones bidireccionales. Después se registró cada conversación, el operador copiaba la sesión en un archivo del  EVPMaker y del SDCP a una de las unidades  suministradas por los investigadores y se lo devolvió por correo a los investigadores; se guardó una copia de seguridad en el SDCP. Mediante el uso de software de edición de audio en su ordenador personal, el operador también creó una versión editada de la sesión en que creyó apreciar una conversación, destacando las secciones en las que identificó palabras y frases (elocuciones) reconocibles. También creó una transcripción de la conversación. Entonces, el operador debía enviar por correo electrónico a los investigadores (a) la base de grabación sin editar de la sesión; (b) la grabación editada de la sesión; y (c) una transcripción de la conversación. Después de que los datos de la última conversación fuese enviada, un investigador (MB) regresaría a  casa del operador para recuperar el SDCP.

Examen de la Seguridad.

Una vez que el SDCP estaba de vuelta en posesión de los investigadores, los registros de seguridad de la SDCP eran revisados ​​para posibles violaciones de seguridad. La salida desde el software de seguridad se comparó con el protocolo previsto para el operador para asegurarse de que siguiese correctamente. Además, los eventos del sistema registrados por el software de seguridad fueron revisados ​​para asegurarse de que el sabotaje no se produjo ningún expediente o hardware. Otros análisis realizados para garantizar la coherencia entre los archivos guardados en el SDCP y los archivos proporcionados por el operador a través de correo electrónico y las unidades flash  incluyen:

1. Una comparación de las sesiones activas con el EVPMaker y archivos salvados por el operador en el SDCP y las copias enviadas a los investigadores por correo.
2. Una comparación de las sesiones activas con el  EVPMaker y archivos, así como sus archivos inéditos grabados de audio.
3. Una comparación de la transcripción de archivos para los archivos de audio grabados.
4. Una comparación de las grabaciones no editadas y las grabaciones de audio editadas.

A partir de estos análisis, se concluyó que la manipulación de los datos era muy poco probable y que la probabilidad de fraude en la recolección de las sesiones activas por parte del operador era extremadamente baja.

Análisis y Resultados

Alófonos generados en las sesiones activas.

Para comparar las sesiones activas recogidas por el operador y las sesiones de control recogidas por los investigadores, los siguientes parámetros fueron examinados: (a) la frecuencia de cada alófono (incluyendo los basados ​​en audio comparación de control adicional), (b) el número total de alófonos, y (c) la clasificación de los alófonos en comparación con los diez sonidos más comunes en el habla Inglesa. Estos análisis se discuten a su vez a continuación. Los datos se presentan como media ± error estándar de la media (SEM).

Frecuencia del Alófono.

El primer análisis evaluó las posibles diferencias en la distribución de los 72 posibles alófonos en el activo y Control . Es la hipótesis de que si se involucran palabras en inglés en las sesiones activas, ciertos alófonos podrían ser presentes con más o menos frecuencia que en las sesiones de control. Para hacer frente a esto, la salida a partir de los archivos originales del EVPMaker se examinó y se determinó la frecuencia porcentual de cada alófono en cada sesión. Las frecuencias medias para cada uno de los 72 alófonos en el Activo y Control fueron comparados mediante la realización de 72 pruebas (pareadas, de dos colas, α = 0,05), una para cada alófono.
Debido a la gran número de análisis, se realizó una corrección de Bonferroni para comparaciones múltiples y dio lugar a un nuevo nivel de significado de 0,0007. En esta nuevo α, ninguna de las diferencias en las frecuencias de los 72 alófonos alcanzó significación.

Audio basado en controles aislados.

Con el fin de comprobar la presencia de influencia externa en las sesiones de control-una de las preocupaciónes de la organización- un segundo grupo de control de archivos fue creado sin usar EVPMaker.
Este empleó una herramienta de software a medida desarrollado por el primer autor (MB) que imitaba la corriente aleatoria producida por el EVPMaker. El software era de números generados al azar entre 0 y 71 para imitar la salida de los 72 alófonos en el EVPMaker. Por ejemplo, la herramienta de software generaría un número, digamos 23, y registraba el número de veces que el 23 fue generado. Por lo tanto, la corriente de los números generados nunca fue recogido, sólo los recuentos de las veces que se generó cada número; el orden de los números (y sus alófonos asociados) nunca podría reproducirse. El software también eligió al azar el número total de puntos de datos generados (por ejemplo, números contados) de los valores entre los números de alófonos más pequeños y más grandes en las 10 sesiones de control. Este protocolo se ha ejecutado un total de 10 veces. Para el análisis, los recuentos de estos “alófonos simulados” se compararon con el número total de alófonos en una “sesión” para determinar la frecuencia por ciento de cada alófono en cada sesión. Las frecuencias medias para cada uno de los 72 alófonos en el Control y en los Aislados fueron comparados mediante la realización de 72 pruebas (pareadas, de dos colas, Bonferroni corregido α = 0,0007), una para cada alófono. Estos análisis demuestran que no había diferencias en la frecuencia de los 72 alófonos al comparar las sesiones de control aisladas y las sesiones de control “regulares”. Por lo tanto, se concluyó que las “regulares”  no se contaminaron.

Número total de alófonos.

El siguiente análisis se dirigió sobre la hipótesis de que si las fuerzas externas (por ejemplo, la comunicación de una entidad, un investigador o participante consciente o inconsciente) tenían intención de influir en la salida de las sesiones activas, y pudieran haber causado alteraciones en el número de alófonos presentes en las muestras de activos en comparación con los controles (por ejemplo, por “realizar” más alófonos en una sesión o elegir alófonos que se tardan más en “pronunciar”, etc.). Para comparar el número medio de alófonos totales por sesión de 3 minutos, un t-test (emparejado, dos colas, α = 0,05) se ha realizó. El número medio de alófonos no difirió entre las muestras Activas (1676 ± 7) y Control (1670 ± 3) (p = 0,38).

Frecuencia de alófonos

En comparación con los sonidos mas comunes en inglés. También examinaron si los sonidos más comunes en el idioma anglosajón aparecieron con mayor frecuencia en las sesiones activas que en los controles. Los sonidos se clasifican de 1-10 en el Inglés de EE.UU. siendo: n (como en Net, t (como en punta), i (como en Tip), i (como en In), u (como en Up), s (como en Sin), d (como en Did), ee (como en Eel), ie (como en Pie), l (como en Lift), y a (como en And) (Zurinskas, 2004:10). La media para estos 10 sonidos en las sesiones activas fueron 32 y 28 para las sesiones de control. La frecuencia con la que cada uno de los 10 sonidos en inglés se encontró en el activo y Control de Sesiones no fue muy diferente (p = 0,69).

Panel ciego On-Line de oyentes para controles emparejados aleatorios

Escucha de los participantes.

Los participantes en el panel de escucha fueron reclutados a través de la página web Windbridge Institut, el AA-EVP NewsJournal, y el programa de radio en internet Signs of Life; la información de la contratación se volvió a publicar en otros sitios web que ofrecen temas similares. Los posibles participantes fueron instruidos para que aportaran sus direcciones de correo electrónico en una página específica en la página web Windbridge Institut. Se recogieron un total de 275 direcciones de correo electrónico. Cuando comenzó el estudio, cada participante potencial recibió un correo electrónico personal de los investigadores con la información sobre cómo acceder a la encuesta en línea (descrita más adelante). Se recogieron un total de 132 encuestas. De estas, 98 contenían datos utilizables. Se eliminaron los participantes si no proporcionaban datos completos, en caso de que no contestaran un artículo sobre su idioma principal hablado, o si indicaron que el inglés Americano no era su lenguaje principal. Los participantes en este estudio tenían edades entre 21-76 años (45,6 ± 1,3) y se incluyeron 69 mujeres (70%) y 29 varones (30%). Para asegurarse de que todos los participantes tuviesen el hardware del equipo adecuado y el software para completar el estudio del grupo de escuchar en línea, se les pidió que escucharan una muestra de audio de prueba y confirmaran que la muestra se oía sin problemas antes de proceder.

El método del panel de escucha.

Uno de los métodos empleados por los investigadores de EVP, en un intento de establecer la objetividad en la interpretación de las palabras y frases capturadas durante las sesiones de grabación es el uso de un panel de audición (Butler, 2010). El método del panel escucha involucra a un grupo de personas con experiencia que vienen a un consenso en cuanto a la interpretación de una sección corta de grabado EVP. Los participantes en el panel de escucha se presentaban luego con la grabación y se les pidió reportar cualquier palabra que ellos reconociesen. Las respuestas de los participantes se comparan con la interpretación inicial del grupo y el porcentaje de palabras coincidentes se determinaban.
El panel se realizó como una encuesta en línea aunque los participantes sabían que estarían escuchando las muestras de grabaciones EVP,
El panel de escucha consistió en 20 muestras de audio. Cada muestra fue de entre 1,2 y 3,5 segundos de longitud. Diez de las muestras fueron seleccionadas de las palabras o frases identificadas en tiempo real por el operador durante las sesiones activas.
Las otras 10 muestras fueron seleccionadas de las sesiones de control registradas por los investigadores. Para cada muestra, el participante se encargó de reproducir la muestra e informar sobre lo que escucharon. Los participantes pudieron escuchar una muestra tantas veces como quisieran antes de continuar. Los participantes debían indicar si oían cualquier palabra reconocible (respondiendo Sí o No ) y reportar cualquier palabra que escuchaban escribiéndolas en un cuadro de diálogo.

Seleccionar y aislar los enunciados.

El método por el cual se seleccionaron las muestras para el panel escucha incluye varios pasos. En primer lugar, se revisaron las transcripciones y notas para cada sesión activa que fueron proporcionados por el operador con las grabaciones de las sesiones. Cualquier expresión que el operador señaló que reconoció en tiempo real- sin la necesidad de una revisión adicional -después de que se completó la sesión fueron luego identificadas. Esto incluyó un total de 90 declaraciones a través de las 10 sesiones activas. A continuación, a cada enunciado le fue asignado un número y una expresión de cada una de las sesiones activas y se seleccionó mediante un generador de números aleatorios en línea (http://www.random.org).
Las expresiones en las grabaciones de sesiones activas se encuentran a continuación, aisladas y preparadas para su uso en el panel de escucha. Para aislar un enunciado de sesión activa, una grabación de la sesión sin editar le fue cargado en el Audacity, la pronunciación y la hora de inicio y la duración se identificaron, y la expresión se guardó como su propia grabación de audio en formato MP3. Este proceso resultó en 10 cortes separados Mp3 , cada uno con un enunciado de sesión activa.
Para crear los controles de la misma, se seleccionó la sección de cada sesión de control que hacía juego con la hora de inicio y duración de la correspondiente expresión activa. Por ejemplo, la Sesión 1 Expresión Activa comenzada a las 00: 01: 20.723097 y tenía una longitud de 1,31 segundos. Para crear el correspondiente control pareado, la sesión de control 1 se cargó en Audacity y una sección del expediente con la misma hora de inicio y duración  fue seleccionada, copiada y convertida en archivo MP3. Este proceso se repite para cada sesión, lo que resulta en 10 emparejados de Control de audio . Cabe señalar que estas secciones coincidentes fueron las únicas partes de las sesiones de control de forma audible.

Análisis de respuestas sí/no.

Los datos de los participantes que no responden a la pregunta : ¿Escuchaste alguna palabra reconocible en esta muestra de audio?. Tanto para una sesión activa (por ejemplo, Active Sesión 3) y su emparejada sesión de control (por ejemplo, Control Sesion 3) fueron retirados de los datos de análisis para ese par; sus datos de otros pares de muestras en las que fueron respondidas ambas preguntas (por ejemplo, Active Sesión 7 y Control  Sesión 7) permanecieron en el banco de datos. Además, los participantes que respondieron “Sí” o “No” a esta pregunta se mantuvieron en la estadística; la única condición era si fueron contestadas ambas preguntas en un par. Cabe señalar que las 20 muestras al azar en el estudio del grupo de oyentes simplemente estaban numeradas sobre 1-20, para que los participantes no fuesen conscientes del esquema de emparejamiento y algunos simplemente optaron por responder a algunos artículos y no otros. El promedio de las respuestas de los 81 participantes (min = 78, max. = 83) se mantuvieron en sistema de datos para cada una de las 20 muestras.
Cuando se le preguntó a la pregunta “¿Has oído alguna palabra reconocible en esta muestra de audio?” Un promedio de 73% de los participantes respondió “Sí” para muestras de las sesiones activas recogidas por el operador. En comparación, un promedio de 63% respondió “Sí” para las muestras de control. Esta diferencia no es significativa (p = 0,12; de una cola, prueba t pareado), que es algo sorprendente teniendo en cuenta que las muestras de sesión activa fueron “pre-seleccionadas” por un oyente; es decir, las muestras activas fueron “elegidas” por el operador, mientras que las muestras de control fueron elegidas como muestras pareadas y no basadas en la presencia de sonidos reconocibles.
Además, aproximadamente la mitad o más de los participantes escucharon las palabras reconocibles en cada una de las 20 muestras, independientemente de si eran muestras activas o de control. Por otra parte, la proporción de respuestas “Sí” en cada grupo (Activo y Control) fue significativamente mayor que lo que podría esperarse por (50/50) el azar (probabilidad binomial; p <0.000001 por cada grupo).

Análisis de respuestas de los participantes vs.percepción del operador.

Para las 10 muestras de sesiones Activas del operador utilizados en el panel de escucha, 599 respuestas de participantes  informaron haber escuchado palabras reconocibles en una muestra estando reunidos. De las 599 respuestas, menos del 10% eran partidos directos a la percepción del operador. En una de las muestras (Sesión 4), el 29% de los participantes que habían oído palabras reconocibles dijeron haber escuchado las palabras idénticas al operador (“You are here”), y en una segunda sesión (Sesión 6: “I’m here for you””) el 43% lo hizo. En las ocho restantes, ninguno de los participantes declaró haber oído lo percibido el operador.

Cada una de las respuestas de los participantes fue anotada por los investigadores así como coincidía con la percepción que el operador. El sistema de puntuación fue desarrollado en base a escalas similares desarrolladas para la visualización remota (Targ et al., 1995) y las lecturas de mediumnidad (Beischel, 2007/2008). Cada uno de dos investigadores contemplaban de forma independiente cada respuesta de los participantes y proporcionaba una puntuación en cuanto a cómo era de similar los sonidos, sílabas, y el contenido a la percepción notificada por el operador. En los casos en los que no estaban anotando discrepancias, los dos investigadores examinaban la respuesta, hasta una puntuación de consenso acordado. El sistema de puntuación empleado las siguientes calificaciones:

4: Entendimiento directo sin incorrección de sonidos, sílabas, o contenido.
3: Buen entendimiento con relativamente pocos sonidos incorrectos, sílabas, o contenido.
2: Mezcla de entendimientos y sonidos que no coinciden, sílabas, y contenido.
1: Leve entendimiento con pocos sonidos a juego, las sílabas y contenido.
0: Pobre entendimiento con muy pocos o ningún sonido a juego, sílabas, y contenido.

Utilizando la misma convención utilizada en la mediumnidad para leer métodos de puntuación, sólo media de las puntuaciones de 3 o superior demostrar un verdadero “Éxito”. La media global de las puntuaciones de consenso para las 10 muestras fue de 1,15 ± 0,05, un valor que está muy por debajo del umbral del “Éxito”. Además, el extremo superior del intervalo de confi anza del 95% de las puntuaciones (1.25) también logró alcanzar este límite.
Una de las muestras de 10 sesiones, la Sesión 6 (“I’m here for you”)  cayó justo por debajo del umbral de “éxito” con una media de 2,99 (± 0,12). Sin embargo, se determinó que este valor es un valor atípico estadístico  y su eliminación del conjunto de datos debe ser considerado. Si las puntuaciones dadas a Sesión 6 se eliminan del análisis, la media actualizada resultante para las nueve muestras restantes se cae de 1,15 (± 0,05) a 0,86 (± 0,05). Esto demuestra que las percepciones del panel de escucha recibieron una puntuación media más baja que lo que se considera un “Entendimiento medio” sobre la percepción del operador.

Análisis de las respuestas a las muestras de control.

Como se mencionó anteriormente, la proporción de participantes que informaron el escuchar las palabras reconocibles en las muestras de sesiones activas no era diferente de la proporción que reconoció las palabras en las sesiones de control. Para investigar más a fondo, los informes de lo que escucharon de las dos sesiones de control con la más alta de cada participante se examinaron las proporciones de respuestas “Sí”. Para control de sesión el 3, 92% de los participantes afirmó que reconoció las palabras y en el control de la sesión 6, el 95% de los participantes escucharon palabras reconocibles. En la Sesión 3, el 100% de los participantes habían oído la palabra “I”. De los participantes el 58% escuchó “I do”, el 12% escucha “I’m” o “I am”, y el 8% escuché “I Knew”. En la Sesión 6, el 92% de los participantes que escucharon palabras reconocibles escuchó la palabra “You”. De los participantes, 88% oído la frase” You Are “, el 20% escucha las palabras” You “y” Light “, y 9 % escuchó “You” y otra palabra “-ight” o “-ite”.
A partir de estos datos, se concluyó que había consenso sustancial entre los participantes, incluso en las muestras de las sesiones de control compuestas de sonidos ordenados aleatoriamente. Por lo tanto, el consenso entre los participantes durante el panel de escucha no descartó pareidolia como una posible explicación de la presencia percibida de TCI en las sesiones activas.

Contenido del Análisis de las preguntas y respuestas percibidas del/al operador .

El siguiente análisis implicó si el contenido de las respuestas percibidas por el operador durante las sesiones activas era contextualmente significativas a sus preguntas. En el transcurso de las 10 sesiones, el operador percibe 124 respuestas a las preguntas que había planteado. Un sistema de puntuación fue desarrollado para evaluar como encaja cada respuesta de modo lógico a la pregunta asociada; este sistema se basa en un método similar al utilizado para el elemento por elemento de anotar en los estudios de lectura mediumnidad (Beischel, 2007/2008). El sistema de puntuación emplea las siguientes calificaciones:

3: Apta siendo obvia (la respuesta que se percibe es una respuesta directa a la pregunta planteada, que no requiere interpretación para dar sentido lógico).

2: Apta requiriendo una mínima interpretación (la respuesta percibida responde indirectamente a la pregunta y necesita de una interpretación mínima o simbolismo para dar sentido lógico).

1: Apta que requiera más de una interpretación mínima (la respuesta percibida responde indirectamente a la pregunta y necesita un mayor grado de interpretación o simbolismo para dar sentido lógico).

0: No Apta (respuesta percibida no es una respuesta lógica a la pregunta planteada).

Dos investigadores analizaron las respuestas percibidas a las preguntas del operador y determinaron conjuntamente una puntuación para cada uno. De las 124 respuestas, más o menos un tercio (31%, 38) recibió una puntuación de 0. Del mismo modo, otro tercio (34%, 42) recibió una puntuación de 3. El tercio restante de las respuestas (35%) recibieron puntuaciones medias de 1 (20) o 2 (24). La media global fue de 1,56 ± 0,11, una puntuación en la mitad del rango de puntuación, y el extremo superior del intervalo de confianza del 95% cayó por debajo de 1,8. Sobre la base de la distribución de estos resultados, se concluyó que las respuestas percibidas por el operador no contenían una información lógica respecto a  sus preguntas.

Objetivo Interpretación de los enunciados Uso de reconocimiento de voz del software.

La formación del software de reconocimiento de voz.

El software de reconocimiento de voz Dragon NaturallySpeaking (SRS) fue realizado para reconocer la “voz” del audio con SpeakJet. Las instrucciones del fabricante SRS enseñan como hacer que el hablante (en este caso, el chip SpeakJet) lea en voz alta un guión preparado proporcionado con el software. Por lo tanto, se requiere que el chip diga el guión de capacitación para el SRS. Esto requiere que el guión se exportará fuera del SRS como un textoen un archivo y que cada una de las palabras de la escritura se pueda convertir manualmente en “lenguaje” con los comandos de sonido reconocidos por el chip SpeakJet. Es importante señalar que el chip no es un convertidor de texto a voz. Las “conversaciones” de chips de códigos de texto para los sonidos del habla individuales junto con los códigos de sincronización para producir sonidos que se asemejan al habla humana (en este caso Inglés). Los códigos de texto se introducen en el software de control Magnevation Phrase Translator y luego se convierte en una serie de comandos numéricos que se carga en el chip. El chip después reproduce los sonidos que corresponden a estos comandos.
Por ejemplo, la frase “He felt he must have picked up and discarded over a thousand stones” de la secuencia de comandos de entrenamiento fue convertido por los investigadores en los siguientes comandos del chip SpeakJet:

Una vez que todas las palabras fueron traducidas a estos códigos, que fueron copiados y pegados en la interfaz del software en segmentos pequeños a fin de que el chip los “hablara”. La salida de audio se conecta a la toma de entrada de micrófono de un segundo equipo y la SpeakJet, creando el guión hablado completandolo como un archivo WAV. Este archivo de audio entonces fue importado en el módulo de capacitación SRS para el reconocimiento en la salida del chip SpeakJet.
Inmediatamente después de la formación inicial, el archivo audio con el script grabado fue importado en el módulo de la transcripción del SRS. El software convierte el discurso SpeakJet a texto con una precisión estimada de 80%. Los errores de los SRS realizados en la conversión de la voz en texto se corrigieron hasta lograr una precisión estimada estable del 95%.

Prueba de enunciados aislados.

Los segmentos de cada una de las 10 sesiones activas que fueron utilizados como elementos del panel de escucha y también fueron analizadas por el SRS. Las traducciones del chip SpeakJet codificadas de esas frases fueron analizados por el SRS. El mismo sistema de puntuación 0-4 que se utilizó para anotar las respuestas de los participantes en el panel de escucha se utilizó entonces para anotar lo bien/o mal de la traducción SRS combinado (1) la frase original percibida por el operador y (2) la salida del chip SpeakJet cuando estaba programado para hablar de la frase el operador informó audiencia.
Las traducciones SRS de la salida de las sesiones del EVPMaker percibidos por el gestor recibieron una puntuación media de 1,5. Las traducciones SRS de la salida del SpeakJet codificado recibieron una significativamente mayor puntuación media de 3,8 (p = 0,0002). Estos datos demuestran que la SRS es capaz de traducir con precisión esas 10 frases codificadas y que las frases percibidas por el operador no eran constantemente presentes en la salida de EVPMaker.
Debido a que (1) el SRS no reconoció las frases percibidas por el operador en las sesiones activas y (2) no había frases “objetivas” pertinentes al comparar las traducciones SRS de las muestras de control, los análisis sin SRS de las sesiones de control se realizaron.

El Chip traductor SpeakJet .

Cómo se examinó también las frases escuchadas por el operador y utilizadas en el panel de escucha en comparación con las traducciones del SpeakJet chip.Los códigos alófonos que crearon para cada enunciado se separaron del resto de los alófonos en la sesión.
Estos pasos incluyeron escuchar un archivo audio en Audacity creado a partir de la EVPMaker de cada sesión, localizando el segmento de la sesión, especificando la hora de inicio de la frase y su duración, y utilizando esa información para localizar los códigos alófonos asociados en el archivo del EVPMaker. Las frases escuchadas por el operador también se codificaron en comandos del chip SpeakJet de la misma manera que el texto utilizado para entrenar el software de reconocimiento de voz . Las órdenes codificadas fueron luego metidas en el software Magnevation Phrase Translator y habladas por el chip SpeakJet para verificar que se reflejaban esas frases.

La tabla 1 contiene los alófonos reales y los sonidos fonéticos asociados que se captaron en el momento en que el operador escuchó cada frase, en comparación con las traducciones del SpeakJet de esas mismas frases. Es evidente a partir de esta comparación de estas 10 frases que el operador escuchó durante el tiempo real de las sesiones activas con el EVPMaker no estaban presentes en la salida del EVPMaker en ese momento en las sesiones. Sin embargo, los sonidos vocálicos similares se encuentran a menudo en la salida. Por ejemplo, cuando el operador escuchó la frase “you are here”, los alófonos que hablaban por el EVPMaker en realidad dijo algo así como “ooch k hoe are teer.” Del mismo modo, cuando el operador escuchó ““I’m here for you” el EVPMaker estaba diciendo  “I oo we’re kk door you. “

Conclusiones

Este estudio piloto (1) intentó crear las condiciones óptimas en las que un operador con el EVPMaker experimentado podría grabar con éxito conversaciones en TCI; el diseño también (2) estableció controles experimentales adecuados que garantizaban la integridad de los datos. Basado en comentarios generales del operador y su confirmación de que una conversación fue grabada en cada una de las 10 sesiones activas, así como una revisión del sistema de seguridad SDCP y una verificación cruzada de los datos suministrados por el operador, los investigadores tienen una alto nivel de confianza que se cumplieran estos dos objetivos.
Con el fin de responder a la pregunta de investigación ¿Puede ser detectado de manera objetiva la presencia voces en las sesiones de TCI en tiempo real grabados por un operador con el EVPMaker, quien afirma tener un contacto exitoso con una entidad externa? Queda así :

1. La comparación de Sesiones activas con el EVPMaker recaudadas por un operador con Sesiones de control fueron recogidas por los investigadores.

2. Se analizaron las respuestas de los participantes en un panel de escucha respecto a sus percepciones sobres las muestras de las sesiones activas y de Control.

3. Se analizó cómo las respuestas percibidas por el operador coinciden en base a la lógica con las preguntas que hizo.

4. Se empleó un software de reconocimiento de voz para proporcionar un análisis libre de sesgos de percepción de las muestras de las sesiones activas.

Para comparar el contenido de la sesión activa y de control se examinaron: (a) la frecuencia de cada alófono (incluyendo los no basados ​​en comparación con los de control adicionales), (b) el número total de alófonos, y (c) el ranking de alófonos en comparación con los diez sonidos más comunes en el habla Inglesa. Para cada uno de esos análisis que comparan la sesión activa y control no se encontraron diferencias. Se determinó también que las sesiones de control recogidas por los investigadores fueron más probable no influida por fuerzas externas.
No se observaron diferencias en las respuestas de los participantes en el panel para escuchar muestras de las sesiones activas y los de las sesiones de control. Las proporciones de participantes que informaron el oír las palabras reconocibles fueron similares para ambos tipos de sesiones. Por otra parte, de las respuestas de los participantes que informaron el oír las palabras reconocibles en una muestra activa (60 ± 4,6), menos del 10% eran partidos directos a la percepción del operador, y en 8 de las 10 muestras de Sesiones activas ninguno de los participantes reportó audiencia lo que percibe el operador. Cuando cada respuesta de los participantes fue anotada por lo bien que coincidía con la percepción del operador, la media global de las puntuaciones de consenso así como el intervalo de confianza del 95% cayó muy por debajo del umbral convencional del “Éxito”.
Además, después de la eliminación de un dato atípico, ninguna de las nueve muestras individuales restantes recibieron un puntaje promedio que alcanzó un nivel que podría considerarse un “Éxito”.
Además, al menos aproximadamente la mitad de los participantes escucharon las palabras reconocibles en cada una de las 20 muestras, independientemente de si eran de Activas o Control. En otras palabras, no era más o menos que un 50% de posibilidades de que un participante oiría palabras reconocibles en cualquier salida del EVPMaker. Este hallazgo es, por supuesto, con base en la suposición de que los controles utilizados en el estudio no contienen voces. Sin embargo, dado que no se encontraron diferencias entre los controles y los controles del EVPMaker aislados no basados ​​en audio, los investigadores tienen un alto grado de confianza que los controles EVPMaker no estaban contaminados.
En el examen de los informes, de lo que escucharon de las dos sesiones de control con las mayores proporciones de reconocimiento de palabras de cada participante, se determinó que no había consenso sustancial entre los participantes, incluso en las muestras de las sesiones de control compuestas de sonidos ordenados aleatoriamente. Por lo tanto, el consenso entre los participantes durante un panel de escucha no aporta pruebas para la comunicación o mensajes generados por el EVPMaker utilizando el archivo SpeakJet Allophone.

En conclusión, después de un análisis detallado de las sesiones activas proporcionados por el operador y las sesiones de control creados por los investigadores, se descubrió que no había diferencias entre las sesiones. Las sesiones Activas y Control con el EVPMaker fueron idénticos con respecto a la frecuencia de los alófonos, el número total de alófonos, la presencia de los sonidos escuchados más comúnmente en el habla Inglés, y el reconocimiento por los oyentes participantes del panel. Tomando todos estos análisis en cuenta, la presencia de las voces en las sesiones activas no era objetivamente detectables.
Por otra parte, el análisis de las preguntas del operador y las respuestas observadas en las sesiones activas reveló que las respuestas no contenían constantemente información que lógicamente corresponden a las preguntas. El operador percibe una respuesta que era pertinente para la cuestión que había planteado, independientemente de si (o no)  la respuesta era detectable en la salida del EVPMaker -más o menos un tercio de las veces. Estos datos sugieren que la interpretación de las conversaciones con el  EVPMaker es un proceso subjetivo, el contenido de las cuales es significativa principalmente (y quizás exclusivamente) para el operador.

Finalmente, los segmentos de cada una de las 10 sesiones activas que fueron utilizadas como elementos del panel de escucha también fueron analizadas por un software de reconocimiento de voz (SRS) y se anotó para la bien o mala traducción del SRS, emparejando (1) la frase original escuchada por el operador o (2) la salida del chip SpeakJet cuando estaba programado para hablar esa frase. Las traducciones SRS de la salida de las sesiones con el EVPMaker percibidas por el gestor recibieron una significativamente menor puntuación que las traducciones del SRS en la salida del SpeakJet . Esto demuestra que las frases informadas en tiempo real por el operador no eran constantemente presentes en la salida del  EVPMaker. Esto indica que el reconocimiento de estas frases es altamente subjetiva.

Fuente.

Anuncios
 
Deja un comentario

Publicado por en abril 11, 2015 en Artículos, parapsicologia

 

Etiquetas: , , , , , ,

Responder

Introduce tus datos o haz clic en un icono para iniciar sesión:

Logo de WordPress.com

Estás comentando usando tu cuenta de WordPress.com. Cerrar sesión / Cambiar )

Imagen de Twitter

Estás comentando usando tu cuenta de Twitter. Cerrar sesión / Cambiar )

Foto de Facebook

Estás comentando usando tu cuenta de Facebook. Cerrar sesión / Cambiar )

Google+ photo

Estás comentando usando tu cuenta de Google+. Cerrar sesión / Cambiar )

Conectando a %s

 
A %d blogueros les gusta esto: