O headset AlterEgo do MIT pode ler palavras que você pensa
O fone de ouvido pode ouvir a vocalização interna e falar com o usuário enquanto aparece em silêncio no mundo externo
Quando você pensa uma frase em sua cabeça, seu cérebro envia sinais para sua boca e mandíbula. O headset do MIT Media Lab lê esses sinais com 92% de precisão.
O MIT explicou em seu comunicado que AlterEgo se comunica com você através de fones de ouvido de condução óssea, que contornam o canal auditivo transmitindo vibrações sonoras através dos ossos do rosto. Isso, segundo o MIT Media Lab, torna mais fácil para o AlterEgo falar com você enquanto você está conversando com outra pessoa.
O objetivo final é fazer interface com assistentes de inteligência artificial, como o Assistente do Google, o Alexa da Amazon ou o Siri da Apple, menos constrangedores e mais íntimos, permitindo que as pessoas se comuniquem com eles de maneira silenciosa para o mundo exterior – um sistema que soa como ficção científica, mas parece inteiramente possível, diz o The Guardian em sua matéria.
O headset com aspecto de prótese é capaz de identificar e traduzir as palavras verbalizadas internamente, utilizando eletrodos ao redor da mandíbula e do queixo do usuário. Com o auxílio da inteligência artificial, os pesquisadores do MIT conseguiriam identificar padrões nas ondas cerebrais e nas expressões faciais das pessoas.
[ot-video][/ot-video]
Dessa forma, o AlterEgo foi programado para captar sinais neuromusculares e reagir a comandos simples como mover cursores, selecionar opções ou compreender ordens a partir de palavras pensadas. Com o propósito de ser uma interface aparentemente silenciosa, as respostas são enviadas a um alto-falante de condução óssea que toca próximo ao ouvido, mas não há necessidade de usar um fone para isolar o som exterior.
Em fase de testes, o dispositivo foi experimentado por 10 pessoas durante 15 minutos e obteve 92% de precisão ao traduzir pensamentos. O MIT, entretanto, ainda não divulgou quando o AlterEgo será comercializado pois está coletando dados para aprimorar o reconhecimento e adicionar mais palavras a serem interpretadas.
Com informações e vídeo do MIT.