Visite também: Currículo ·  Efetividade BR-Mac

O que é LinuxDownload LinuxApostila LinuxEnviar notícia


Sua mente controlando interfaces

Via softwarelivre.org:

Não é só nos filmes de ficção científica que é possível controlar objetos apenas com o poder da mente. Um dos destaques da BITS Global Conferences deste ano foi a palestra “Sua mente no Controle” de Alessandro Faria (Cabelo) sócio-proprietário da empresa NETi Tecnologia, que apresentou o Emotiv EPOC. O sistema é responsável por interpretar e utilizar impulsos neurais para que o usuário interaja com interfaces apenas usando a força da mente.

A utilização do capacete é bastante simples. Basta instalá-lo e posicionar corretamente os sensores no couro cabeludo. É possível ver através do SDK se os sensores estão bem posicionados e corrigir vendo os resultados em tempo real.

(…) Entretanto, para o palestrante, a principal realização é ver como o desenvolvimento do sistema pode ser útil para pessoas que não podem controlar objetos com os membros inferiores e superiores do corpo. O Emotiv Epoc já foi testado em diversas situações como dirigir um carro, conduzir cadeiras de rodas e operar equipamentos eletrônicos.

Embora o sistema seja proprietário, Cabelo, militante do SL, tem intenção de “libertá-lo” e para isso está desenvolvendo bibliotecas para a interação do equipamento de forma livre.


• Publicado por Augusto Campos em 2012-05-21

Comentários dos leitores

Os comentários são responsabilidade de seus autores, e não são analisados ou aprovados pelo BR-Linux. Leia os Termos de uso do BR-Linux.

    Carlinhos Mattos (usuário não registrado) em 21/05/2012 às 9:36 am

    Será que o cabelo conhece essa biblioteca? https://github.com/qdot/emokit

    Eu acho interessante também esse projeto, que desenvolve também o hardware necessário além do software, e disponibiliza ambos em licenças livres: http://openeeg.sourceforge.net/

    Será que o Cabelo conhece outras empresas que produzem esse tipo de equipamento?

    O PLX XWave é mais barato (menos de 100 dólares), além de possuir menos eletrodos, só não sei do funcionamento com Android, está no site, só que ele não mostra nenhuma aplicação para essa plataforma:

    http://www.plxdevices.com/plxwave/techspecs.php

    Aqui está a página do EPOC da Emotiv:

    http://www.emotiv.com/store/hardware/epoc-bci/epoc-neuroheadset/

    E aqui uma empresa que usa uma touca, mas não diz o preço do equipamento:

    http://www.gtec.at/Products/Complete-Solutions/intendiX-Specs-Features

    Paulo Pontes (usuário não registrado) em 21/05/2012 às 1:25 pm

    @Xinuo tou lendo a especificação da API do PLX XWave e não achei legal não, ele só pega 2 dimensões, “atenção” e “meditação”.

    que pena, tava quase comprando a versão developer :(

    Porfírio (usuário não registrado) em 21/05/2012 às 1:32 pm

    O suporte Android para o PLX XWave parece muito com uma mentira, @Xinuo… Não só não há nenhuma app para essa plataforma quanto o link para o SDK para Android aponta para a documentação e suporte para o iOS.

    @Porfírio, simulei uma compra e não obtive êxito na versão XWave bluetooth, que é a que funcionaria com PC e Android. :(

    Faz tempo que ouvi falar desse produto e como saiu a notícia relacionada eu fui atrás para ver como estava o desenvolvimento, mas pelo visto estagnou ou ficou pior.

    Refleti e agora penso que não importa o número de aplicações, o que queria era controlar as apps existentes com a “força” da mente. Penso que deveria ser assim o funcionamento desse tipo de programa, para app que não usem diretamente os sensores, o SO deveria usar o hardware e traduzir em toques/movimentos de tela/teclado/mouse/joystick para os programas comuns.

    Porfírio (usuário não registrado) em 21/05/2012 às 4:44 pm

    @Xinuo, eu vi em um vídeo da CES uma coisa assim, mas creio que usaram apps específicos. A interface teclado/mouse/toque/voz que usamos hoje é bem diferente dessa, não sei se dá pra usar um aplicativo existente sem reescrever.

    O que talvez pudesse haver seria um app que funcionasse como uma camada de compatibilidade, algo parecido com o suporte a acessibilidade que sistemas como o Android possuem. Ainda não vi algo assim, mas seria possível.

    @Porfírio, no terceiro link que postei o produto g.tec é mostrado junto com o netbook com um teclado virtual, a pessoa se concentra na tecla que quer e a letra correspondente é digitada.

    Sendo movimentos de mouse, a pessoa se concentra e move o mouse na direção que quer (para cima, baixo, …), clica nos ícones, arrasta os objetos que quiser.

    As apps não precisam saber como o usuário lida com elas, se ele está usando um teclado/mouse real, um virtual na sua tela touch ou um mental.

    O SO pega a informação que foi teclada (ou pensada) a letra “A” e entrega para aplicação.

    Note que não estou descrevendo como o produto funciona e sim como eu acho que deveria funcionar.

    Heaven (usuário não registrado) em 21/05/2012 às 10:36 pm

    O designer deste parece melhor: http://store.neurosky.com/

    Pessoal, grande parte dos assuntos mencionados nos comentários, esta presente na apresentação tanto sobre o Emokit como outros. A apresentação esta disponível aqui:

    http://cabelovivaolinux.wordpress.com/2012/05/16/palestra-disponivel-sua-mente-no-controle/

    E a entrevista da palestra aqui:

    http://cabelovivaolinux.wordpress.com/2012/05/18/neurociencia-entrevista-sobre-a-palestra-sua-mente-no-controle/

    Não podemos esquecer da ferramenta openVibe http://openvibe.inria.fr/

Este post é antigo (2012-05-21) e foi arquivado. O envio de novos comentários a este post já expirou.