Arquivo da tag: ciência

Como redes neurais podem ser criadas e usadas para mudar o mundo

redes-neurais

Durante séculos, a abordagem científica para compreensão de processos físicos consistiu principalmente na construção de um modelo matemático de processo, resolvendo as equações do movimento e interpretando o comportamento do processo em termos destas soluções. Os próprios modelos matemáticos são expressões de leis físicas que são geralmente escritas como equações diferenciais. Estas leis podem ser usadas para descrever o comportamento do processo, tendo em conta as condições iniciais. A tentativa de compreender a natureza descrevendo-a em termos matemáticos tem sido incrivelmente bem sucedida. Os gigantes do assunto como Newton, Maxwell e Dirac, encapsularam verdades fundamentais nas equações que levam seus nomes. Não só podem ser descritos os fenômenos conhecidos, mas também os surpreendentes e inesperados efeitos podem ser previstos, tais como a previsão de Hamilton da Refração Cônica ou a previsão de Einstein da curvatura de um feixe de luz que passa a de um corpo muito grande.

As redes neurais têm aplicações em diversas áreas onde os padrões precisam ser extraídos a partir de dados históricos, incluindo a previsão financeira, o reconhecimento de voz e o controle de processos. Uma aplicação comum é olhar para o padrão de retornos de um anúncio de marketing e usar isso para direcionar mais anúncios. Outra é em reconhecimento de escrita, onde se pode escrever em um caderno e a escrita será traduzida em texto ASCII. Há também um campo em desenvolvimento chamado Neurociência Computacional, que toma a inspiração de ambas as redes neurais artificiais e neurofisiológicas e tenta juntá-las.

Vamos aos conceitos

A definição mais simples de uma rede neural, mais propriamente chamada de rede neural “artificial” (RNA), é provida pelo inventor de um dos primeiros neurocomputadores, Dr. Robert Hecht-Nielsen. Ele define uma rede neural como:

“… um sistema de computação composto por um número de elementos de processamento simples, altamente interligados, que processam informação pelo seu estado dinâmico de resposta à entradas (inputs) externos.” – Em “Neural Network Primer: Part I”, por Maureen Caudill, AI Expert, Fev. 1989

RNAs são dispositivos de processamento (algoritmos ou hardware real) que são vagamente modelados após a estrutura neuronal do córtex cerebral dos mamíferos mas em escala muito menor. Um grande RNA pode ter centenas ou milhares de unidades de processamento, ao passo que um cérebro de um mamífero tem bilhões de neurônios com um correspondente aumento na sua interação geral e comportamento emergente. Embora os pesquisadores de RNA geralmente não estejam preocupados com o fato de suas redes se assemelharem com precisão a sistemas biológicos, alguns têm. Por exemplo, alguns pesquisadores têm simulado com precisão a função da retina do olho e modelado incrivelmente bem.

Embora a matemática envolvida com as redes neurais não seja uma questão trivial, um usuário pode muito facilmente conseguir pelo menos uma compreensão operacional da sua estrutura e função.

Para entender melhor a computação neural artificial é importante saber primeiro como um computador “serial” convencional e seu software processam a informação. Um computador de série tem um processador central que pode tratar uma variedade de locais de memória onde os dados e instruções são armazenados. Os cálculos são feitos pelo processador lendo uma instrução bem como quaisquer dados que a instrução requeira dos endereços de memória. A instrução é então executada e os resultados são guardados numa localização de memória específica, conforme necessário. Em um sistema de série (e um paralelo padrão também) os passos computacionais são deterministas, sequenciais e lógicos, e o estado de uma determinada variável pode ser monitorado a partir de uma operação para outra.

Um guia Hacker para Redes Neurais – uma biblioteca Javascript para trabalhar com Redes Neurais
Um guia Hacker para Redes Neurais – uma biblioteca Javascript para trabalhar com Redes Neurais

Em comparação, RNAs não são sequenciais ou necessariamente deterministas. Não existem processadores centrais complexos, mas sim, muitos processadores centrais simples que geralmente não fazem nada além de tirar a soma ponderada de seus inputs de outros processadores. RNAs não executam instruções programadas; eles respondem em paralelo (ou simulado ou real) para o padrão de entradas que lhe são apresentados. Também não há endereços de memória separados para armazenamento de dados. Em vez disso, a informação está contida no “estado” de ativação global da rede. “Conhecimento” é, portanto, representado pela própria rede, que é literalmente mais do que a soma dos seus componentes individuais.

As redes neurais são aproximadores universais, e elas funcionam melhor se o sistema que você estiver usando para modelá-las tem uma alta tolerância ao erro. Seria, então, não aconselhado usar uma rede neural para equilibrar um talão de cheques! No entanto, eles funcionam muito bem em:

  • capturar associações ou descobrir regularidades dentro de um conjunto de padrões;
  • onde o volume, o número de variáveis ou diversidade dos dados é muito grande;
  • as relações entre as variáveis são vagamente entendidas; ou,
  • as relações são difíceis de descrever adequadamente com as abordagens convencionais.

Dependendo da natureza da aplicação e a força dos padrões de dados internos é bem possível que uma rede se forme muito bem. Isto aplica-se aos problemas onde as relações podem ser bastante dinâmicas ou não lineares. RNAs fornecem uma alternativa analítica para técnicas convencionais que são muitas vezes limitadas pelos pressupostos rigorosos de normalidade, linearidade, independência variável, etc. Porque uma RNA pode capturar muitos tipos de relacionamentos, é permitido que o usuário, de forma rápida e relativamente fácil, modele fenômenos que antes podem ter sido muito difíceis ou impossíveis de se explicar.

Logo, podemos concluir que essa nova técnica computacional pode muito revolucionar diversos campos da ciência, e por seu desenvolvimento contínuo, podemos dizer que isso não está muito longe de acontecer.

Cientistas divididos sobre perigos da recriação do Big Bang

Às 12:06 horas da última terça-feira fez-se História no CERN. 30 de março de 2010 vai ser, para sempre, relembrado como o dia em que o homem recriou, em versão miniaturizada, a explosão que deu origem ao Universo. Alguns cientistas dizem que estas experiências põem em risco a humanidade.

Inspirados pelo sucesso de terça-feira, os investigadores do CERN têm agora como objectivo alargar a experiência até ao momento exacto da criação do Universo. Depois da colisão de partículas à velocidade de 50 embates por segundo, a 30 de março, o centro de investigação na Suíça pretende aumentar o número de colisões para 300 por segundo.

Milhares de cientistas em todo o mundo estão a seguir as colisões que acontecem no LHC, e que são representadas em gráficos multicoloridos nos monitores do CERN. Tendo como propósito aprender mais sobre as partículas subatómicas e o papel que desempenham no Universo, tanto eles como os seus colegas do CERN esperam descobrir matéria negra, que acreditam compor cerca de 25% do Universo. Esta substância é apenas detectável através dos seus efeitos gravitacionais, bem como por meio de radiação.

Procurar matéria negra é perigoso para a humanidade?

O LHC pode, ainda, ajudar a perceber se a matéria negra existe de todo, como explicou John Ellis, citado pelo “Information Week”. “Temos muitas teorias sobre o que podemos vir a encontrar, mas apenas através de experiências é que podemos saber quais estão certas, se é que alguma está!”, afirmou o membro do Grupo Teórico do CERN.

Como acontece, muitas vezes, em experiências inovadoras, alguns investigadores externos, de que fazem eco os teóricos da conspiração, consideram que o CERN está a pôr em risco a humanidade, dado que as colisões a acontecer no LHC criam “mini buracos negros” – versões extremamente reduzidas dos originais gigantes que se encontram no centro de várias galáxias, e que sugam a matéria em seu redor.

Mas os responsáveis pelo LHC põem de parte essa possibilidade. “Os buracos negros que possam surgir a partir das nossas colisões duram uma fracção de segundo antes de se dissolverem. Não são perigo nenhum para a humanidade”, assegurou o físico do CERN, Denis Denegris.

Planos definidos até 2013

Mas a experiência levada a cabo no centro instalado na Suíça não se resume apenas aos acontecimentos dos últimos dias: o projeto, dividido em várias fases, tem já etapas definidas até, pelo menos, 2013. “Estamos a aproximar-nos de fronteiras científicas totalmente novas”, disse James Gillies, porta-voz do CERN, à agência Reuters.

Caso não surjam problemas de maior, a inserção de feixes de prótons no LHC será quase diária até ao final de 2011, altura em que a máquina será preparada para suportar colisões mais poderosas. A partir de 2013, as partículas vão passar a chocar a um total de 14 TeV.

Os resultados podem vir a ser aquilo a que Segio Bertolucci, director de Investigação do CERN, chama “o desconhecido desconhecido”, isto é, aspectos da criação do Universo que se afigurem como uma surpresa total.

O dia seguinte à experiência inédita

Se os acontecimentos de 30 de março foram paradigmáticos, as etapas levadas a cabo um dia depois, quarta-feira, não trouxeram nada de extraordinário. Entretanto, os técnicos aproveitaram para consertar pequenas falhas no Acelerador Atómico de Partículas (LHC na sigla original), semelhantes às que atrasaram o início da experiência em alguma horas na terça-feira.

James Gillies não se mostrou preocupado. “Estamos a avançar progressivamente. Pequenos problemas como estes são normais em projetos desta envergadura”, explicou.

Paralelamente ao aumento do montante de partículas inseridas no LHC, o CERN quer aumentar a informação relativa aos resultados de colisões a sete teravolts (TeV), o que corresponde a 99,99% da velocidade da luz. A essa potência, as colisões de partículas são praticamente uma simulação perfeita dos eventos que aconteceram poucos nano-segundos após o Big Bang, e que levaram à criação das galáxias, estrelas e à vida na Terra – e, quem sabe, noutros pontos do Universo.

Gillies confirmou que o montante total de partículas a inserir no LHC vai ser aumentado de dois de cada vez para 2700 entre os primeiros 18 meses e dois anos da fase “Nova Física” do projeto.

“Vai ser como se fizéssemos cada vez mais carros acelerarem em direções opostas na mesma faixa de uma auto-estrada: haveria cada vez mais choques frontais”, explicou o porta-voz do CERN.

À procura da “partícula de Deus”

De acordo com o comunicado presente na página oficial do CERN, as experiências no LHC vão continuar até se ter recolhido dados suficientes para se poder fazer uma “re-descoberta” do Modelo Standard de Partículas.

Só a partir desse momento, necessário para se poder avançar com a procura de novos modelos da Física, é que as experiências levadas a cabo no LHC terão como objetivo a descoberta do Bóson de Higgs. Conhecido como “a partícula de Deus”, é a partícula hipotética de energia, tida como responsável pela criação do Cosmos através da transformação em massa da matéria gerada pelo Big Bang.

Os especialistas do CERN acreditam que só nessa fase do projeto é que esse elemento será encontrado. A sua descoberta, a acontecer, vai permitir resolver várias inconsistências dos modelos teóricos da física correntes hoje em dia.

Fonte: Jornal de Notícias