Invistta.site

A computação inspirada no cérebro pode enfrentar grandes problemas em pequena escala

Embora os computadores tenham se tornado menores e mais poderosos e os supercomputadores e a computação paralela tenham se tornado o padrão, estamos prestes a atingir uma barreira em energia e miniaturização. Agora, os pesquisadores da Penn State projetaram um dispositivo 2D que pode fornecer mais que respostas sim ou não e pode parecer mais do que as arquiteturas de computação atuais.
“O dimensionamento da complexidade também está em declínio devido à não escalabilidade da arquitetura de computação tradicional de von Neumann e à era iminente do ‘Dark Silicon’, que apresenta uma séria ameaça à tecnologia de processadores com vários núcleos”, observam os pesquisadores no dia 13 de setembro on-line. edição da Nature Communications .
A era do silício escuro já está sobre nós em certa medida e refere-se à incapacidade de todos ou a maioria dos dispositivos em um chip de computador serem ligados ao mesmo tempo. Isso acontece devido ao excesso de calor gerado a partir de um único dispositivo. A arquitetura Von Neumann é a estrutura padrão da maioria dos computadores modernos e se baseia em uma abordagem digital – respostas “sim” ou “não” – onde as instruções e os dados do programa são armazenados na mesma memória e compartilham o mesmo canal de comunicação.
“Por causa disso, operações de dados e aquisição de instruções não podem ser feitas ao mesmo tempo”, disse Saptarshi Das, professor assistente de ciência e mecânica de engenharia. “Para tomadas de decisão complexas usando redes neurais, você pode precisar de um cluster de supercomputadores tentando usar processadores paralelos ao mesmo tempo – um milhão de laptops em paralelo – que ocupariam um campo de futebol. Dispositivos portáteis de saúde, por exemplo, não pode funcionar dessa maneira. ”
A solução, de acordo com Das, é criar redes neurais estatísticas analógicas, inspiradas no cérebro, que não dependem de dispositivos que estão simplesmente ligados ou desligados, mas fornecem uma gama de respostas probabilísticas que são comparadas com o banco de dados aprendido na máquina . Para fazer isso, os pesquisadores desenvolveram um transistor gaussiano de efeito de campo feito de materiais 2D – dissulfeto de molibdênio e fósforo preto.

 Esses dispositivos são mais eficientes em termos de energia e produzem menos calor, o que os torna ideais para expandir sistemas.

“O cérebro humano opera perfeitamente com 20 watts de potência”, disse Das. “É mais eficiente em termos energéticos, contendo 100 bilhões de neurônios, e não usa a arquitetura von Neumann”.
Os pesquisadores observam que não são apenas a energia e o calor que se tornam problemas, mas que está se tornando difícil encaixar mais em espaços menores.
“A escala de tamanho parou”, disse Das. “Só podemos colocar aproximadamente 1 bilhão de transistores em um chip. Precisamos de mais complexidade, como o cérebro”.
A idéia de redes neurais probabilísticas existe desde a década de 1980, mas precisava de dispositivos específicos para implementação.
“Semelhante ao funcionamento de um cérebro humano, os principais recursos são extraídos de um conjunto de amostras de treinamento para ajudar a rede neural a aprender”, disse Amritanand Sebastian, estudante de engenharia e ciência da engenharia.
Os pesquisadores testaram sua rede neural em eletroencefalógrafos humanos, representação gráfica das ondas cerebrais. Depois de alimentar a rede com muitos exemplos de EEGs, a rede pode pegar um novo sinal de EEG, analisá-lo e determinar se o sujeito está dormindo.
“Não precisamos de um período de treinamento ou base de informações tão extenso para uma rede neural probabilística quanto precisamos de uma rede neural artificial”, disse Das.
Os pesquisadores veem a computação em rede neural estatística com aplicações na medicina, porque as decisões de diagnóstico nem sempre são 100% sim ou não. Eles também percebem que, para obter o melhor impacto, os dispositivos de diagnóstico médico precisam ser pequenos, portáteis e usar energia mínima.
Das e colegas chamam seu dispositivo de sinapse gaussiana e é baseado em uma configuração de dois transistores, em que o dissulfeto de molibdênio é um condutor de elétrons, enquanto o fósforo preto conduz através da falta de elétrons ou orifícios. O dispositivo é essencialmente dois resistores variáveis ​​em série e a combinação produz um gráfico com duas caudas, que corresponde a uma função gaussiana.
Outros que trabalharam nesse projeto foram Andrew Pannone, graduado em ciências de engenharia e mecânica; e Shiva Subbulakshmi, estudante de engenharia elétrica em Amrita Vishwa Vidyapeetham, Índia, e estagiária de verão no laboratório Das.
O Escritório de Pesquisa Científica da Força Aérea apoiou este trabalho.