Inteligência Artificial

Os Chips Neurais e a Natureza Quântica da Transmissão Sináptica

image

No texto de Roberto Lent, publicado no livro “Cem Bilhões de Neurônios – Conceitos fundamentais de neurociência”, o autor disserta que a sinapse é a unidade processadora de sinais do sistema nervoso. Trata-se da estrutura microscópica de contato entre um neurônio e outra célula, atraves da qual se dá a transmissão de mensagens entre as duas. Ao serem transmitidas, as mensagens podem ser modificadas no processo de passagem de uma célula à outra, e é justamente nisso que reside a grande flexibilidade funcional do sistema nervoso.

Há dois tipos básicos de sinapses as químicas e as elétricas. As sinapses elétricas (chamadas junções comunicantes) são sincronizadores celulares. Com estrutura mais simples, transferem correntes iônicas e até mesmo pequenas moléculas entre células acopladas. A transmissão é rápida e de alta fidelidade; por isso as sinapses elétricas são sincronizadoras da atividade neuronal. Por outro lado, têm baixa capacidade de modulação.

O autor afirma que as sinapses químicas são verdadeiros Chips biologicos porque podem modificar as mensagens que transmitem de acordo com inúmeras circunstâncias. Sua estrutura é especializada no armazenamento de substâcias neurotransmissoras e neuromoduladoras que, liberadas no exíguo espaço entre a membrana pré e a membrana pós-sináptica, provocam, nesta última, alterações de potencial elétrico que poderão influenciar o disparo de potenciais de ação do neurônio pós-sináptico.

Uma sinapse isolada teria pouca utilidade, porque a capacidade de processamento de informação do sistema nervoso provem justamente da integração entre milhares de neurônios, e entre as milhares de sinapses existentes em cada neurónio. Todas elas interagem: os efeitos excitatórios e inibitórios de cada uma delas sobre o potencial da membrana do neurônio pós-sináptico somam-se algebricamente, e o resultado desta interação é que caracterizará a mensagem que emerge pelo axônio do segundo neurônio, em direção a outras células.

Segundo o autor, o trabalho da maioria dos neurotransmissores consiste na reconversão da mensagem química em mensagem elétrica. A quantidade de neurotransmissor liberado na fenda, proporcional à frequência de PAs (Potencial de Ação) que afluem ao terminal, determinará por sua vez um PPS (Potencial Pós-Sinaptico) cuja amplitude será proporcional à quantidade de moléculas que atingem os receptores. Segundo o autor é muito importante observar que proporcional é diferente de igual, e que, além disso, o coeficiente de proporcionalidade que relaciona a frequência de PAs à quantidade de neurotransmissor liberada não é necessariamente igual àquele que relaciona a quantidade de neurotransmissor que ativa a membrana pós-sináptica e a amplitude do PPS produzido no final da transmissão. Isso significa que a transmissão sináptica pode amplificar ou atenuar a mensagem original. Sendo assim, esta pode ser modificada, o que é uma caracteristica dos chips dos microcomputadores mas não dos seus fios e cabos de transmissão.

A visão da Sinápse

A visão da sinapse como um chip biológico, e não como um cabo de transmissão, surgiu cedo no estudo da transmissão sináptica, quando se verificou a dependência dos PPSs em relação à quantidade de neurotransmissor liberada. Ainda segundo Lent, logo se descobriu um fenômeno interessante: a natureza quântica da transmissão sináptica. A descoberta foi do fisiologista alemão Bernard Katz (1911-2003), ganhador do prêmio Nobel de fisiologia ou medicina em 1970. Katz registrava pequenos potenciais sinápticos na célula muscular, quando verificou que todos tinham amplitude múltipla de um valor unitário muito pequeno (menor que 1 mV), um verdadeiro quantum G. Sugeriu então que o potencial unitário (quântico) refletiria a quantidade de neurotransmissor contida em uma única vesícula sináptica, e que por isso os PPSs registrados nos experimentos eram sempre múltiplos inteiros dele. Posteriormente, verificou-se que uma vesícula de acetilcolina na sinapse neuromuscular contém milhares de moléculas desse neurotransmissor, e que essa quantidade de moléculas, quando administrada à sinapse experimentalmente, provocava um potencial de amplitude inferior a 1 mV.

image

Por outro lado, verificou-se também que um único PA na fibra nervosa provoca a liberação do conteúdo de cerca de 200 vesículas na sinapse neuromuscular, gerando um PPSE com amplitude de cerca de 50 m V. Esta característica da sinapse neuromuscular confere-lhe um alto “fator de segurança”, índice que indica alta probabilidade de sucesso na transmissão sináptica. É natural que seja assim, pois é necessário que o motoneurônio seja sempre capaz de ativar, sem falha, a célula muscular. Quando o fator de segurança da sinapse neuromuscular cai, como acontece, por exemplo, em uma doença autoimuneG chamada miastenia graveG, a transmissão sináptica falha, e os músculos respondem defeituosamente aos comandos do sistema nervoso.

Nas sinapses do SNC (sistema nervoso central) a situação é bem diferente: cada PA pode liberar o conteúdo de uma única vesícula, o que resulta em um PPS de apenas cerca de 0,1 mV de amplitude. Uma variação de potencial tão pequena, entretanto, não é suficiente por si só para provocar a gênese de um PA no neurônio pós-sináptico. Isso significa que o fator de segurança das sinapses centrais é frequentemente baixo. Conclui-se que as mensagens transmitidas no SNC devem envolver muitas sinapses sobre um mesmo neurônio, para que sejam convertidas em novas mensagens conduzidas por esse neurônio. A interação entre as muitas sinapses que incidem sobre um mesmo neurônio é a essência do desempenho do sistema nervoso como um sistema inteligente, e será objeto de futuros artigos.

 

Espero que tenha gostado deste pequeno artigo.

Márcio Pulcinelli @ OminaVincit!


O Paradigma Conexionista da Inteligência Artificial

imageNo texto “O Paradigma Conexionista da Inteligência Artificial”, de Luís Alfredo Vidal de Carvalho, publicado no livro DATAMINING, o autor informa que este foi oficialmente o único paradigma aceitável desde o início da década de 60 até aproximadamente 1980 quando um biólogo e físico chamado John Hopfield provocou o renascimento de teorias há muito abandonadas.

Segundo o autor, Hopfield se baseou em modelos matemáticos simples de neurônios e com eles construiu uma rede neuronal com a capacidade de simular a memória associativa humana acessando através de conteúdo e não através de endereços como nos computadores clássicos.

O autor levanta questões sobre o termo rede neural ou rede neuronal e informa que no nosso idioma a palavra neural se refere ao sistema nervoso como um todo e não ao neurônio individualmente. Como o paradigma conexionista lista com a construção de redes de neurônios e não de redes de sistemas nervosos, o termo rede neural está errado.

Em seguida, o autor disserta sobre o erro simbolista informando que o maior dos questionamentos ao paradigma simbolista tenha sido a hipótese da suficiência de estruturas lógicas para o entendimento da mente humana desprezando o maquinário cerebral.

Segundo o autor, a corrente conexionista postula contrariamente aos simbolistas, que a estrutura física do cérebro é fundamental para o entendimento da mente. A maneira como estes elementos computacionais se interligam é fundamental para o surgimento do processo mental emergente da população, daí o nome conexionista adotado por esta corrente de pensamento.

Dando prosseguimento ao texto, o autor disserta sobre o neurônio informando que considera-se que a estrutura básica do funcionamento cerebral é a célula nervosa ou neurônio, cuja especialidade é gerar sinais elétricos e transmiti-los a outros neurônios. Os neurônios possuem uma membrana que as separa do seu meio, permitindo que dentro do espaço celular se mantenham as condições ideais para a execução de suas funções. Ainda segundo o autor, esta membrana se diferencia em cada região do neurônio formando o corpo celular, no qual se encontram as organelas celulares responsáveis pela maioria das atividades da célula, o axônio, prolongamento único e relativamente longo, e os dendritos que são prolongamentos curtos e numerosos em geral.

Segundo o autor, o axônio tem a capacidade de disparar em seu cone o impulso nervoso e transmiti-lo ativamente até distâncias relativamente grandes, conectando-se com os dendritos e outros neurônios através dos seus colaterais axônicos.

O autor informa que a conexão entre um colateral e um dendrito chama-se sinapse, sendo apenas um tênue contato entre as membranas das duas células envolvidas com um espaço no meio denominado de fenda sináptica. O colateral axônico, ao receber um impulso nervoso, libera na fenda sináptica uma substância química produzida pelo próprio neurônio denominada de neurotransmissor.

Segundo o autor, uma sinapse não é tão simples, pois existem outros elementos importantes na sua estrutura e este assunto representa uma das fronteiras do conhecimento humano da atualidade. O que importa, segundo o autor, é o fato de que o impulso nervoso não é transmitido diretamente de um neurônio para outro, mas é antes transformado em uma codificação química através dos neurotransmissores e receptores presentes nas sinapses. Ainda segundo o autor, esta tradução de sinal (elétrica – química – elétrica) adiciona ao sistema nervoso uma flexibilidade enorme permitindo a formação da memória, o aprendizado e muitas outras propriedades do cérebro.

O autor apresenta um rápido comentário sobre como os impulsos elétricos são gerados, informando que a membrana do neurônio possui canais que permitem a passagem de alguns íons, em especial o sódio e o potássio. Esses canais se abrem e se fecham em função do potencial elétrico presente. Quando o potencial elétrico atinge determinado nível na membrana do cone axônico, os canais de sódio se abrem permitindo a entrada deste íon. Este é um processo passivo, pois a quantidade de íons fora da célula é muito maior que dentro da mesma. Como o íon sódio é carregado positivamente, o potencial da membrana se eleva. Quando este potencial atinge certo valor limite, os canais de potássio se abrem e estes íons saem da célula passivamente, pois sua concentração interna é maior que a externa. Como estes íons são carregados positivamente, sua saída diminui o potencial da membrana celular, restaurando-o. Este movimento de subida e descida do potencial da membrana é o que denominamos de potencial de ação ou impulso nervoso.

Dando sequencia ao texto, o autor disserta sobre a estrutura matemática dos modelos conexionistas informando que o objetivo do paradigma é descobrir como conectar neurônios artificiais (modelos matemáticos) de forma gerar redes neurais capazes de realizar tarefas semelhantes às humanas. Segundo o autor, a modelagem matemática dos neurônios e redes neuronais necessita de uma estrutura básica de conceitos e linguagem.

O autor escreve sobre o neurônio linear e informa que utilizando a estrutura matemática e conceitual básica, podemos construir muitos modelos conexionistas. O neurônio linear é chamado assim, pois suas regras de propagação e ativação são lineares. O neurônio linear é muito simplório resultando em redes neurais que realizam poucas tarefas interessantes.

Para finalizar, segundo o autor, uma evolução do modelo linear é a substituição da regra de ativação para um modelo não linear. Mesmo com apenas os neurônios lineares e semi-lineares, já somos capazes de construir algumas redes neuronais muito importantes para a mineração de dados.

Espero que tenham gostado do artigo. Caso tenha interesse pelo assunto me escreva.

Márcio Pulcinelli @ OminaVincit


Anatomia do Neurônio

imageEste artigo na verdade é um vídeo que eu assisti um tempo atrás. Ele apresenta a anatomia do neurônio segundo interpretação do Salman Khan criador do Khan Academy. É um vídeo bem simples e educativo e bem introdutório sobre o assunto.

 

 

Fonte–Khan Academy

 


Espero que gostem do vídeo. Qualquer dúvida me escreva.

Márcio Pulcinelli @ OminaVincit !!!


Sistemas Computacionais Simbolistas

image

No texto "Os Sistemas Computacionais Simbolistas", de Luís Alfredo Vidal de Carvalho, publicado no livro DATAMINING, o autor apresenta a descrição de que os sistemas simbolistas são programas de computador que seguem uma arquitetura padronizada que materializa as duas hipóteses do paradigma simbolistas informando que estes sistemas possuem basicamente 3 elementos: base de dados, regras de produção e sistema de controle.

 

Para o primeiro dos 3 elementos, o autor cita que a base de dados representa o conhecimento declarativo sobre o problema, ou seja, é uma representação simbólica do mesmo.

Para o segundo elemento, o autor informa que as regras de produção são a representação simbólica dos operadores, capazes de criar e alterar os símbolos, que estão representados pela a base de dados. As regras de produção são aplicadas sobre a base de dados, alterando-a até que a solução do problema seja encontrada. Ainda segundo o autor, as regras de produção tem um formato "Se um conjunto de condições é satisfeito então realize uma data operação".

Para o terceiro elemento citado pelo autor, os sistemas simbolistas possuem uma estrutura de controle e supervisão que decide a cada instante que regra de produção será aplicada sobre a base de dados. Segundo o autor, a decisão é tomada baseada nas heurísticas existentes sobre o problema e representadas em um banco de heurísticas ao qual o sistema de controle tem acesso. No sistema de controle está guardado o conhecimento heurístico sobre o problema que é o conhecimento mais profundo e importante para o sistema simbolista.

Sistema de Controle -> Regras de Produção -> Base de Dados

O autor cita no texto os tipos de busca utilizados pelos simbolistas como:

Irrevogável, Tentativas, Backtracking, Busca Heurística.

Segundo o autor, a busca irrevogável se caracteriza por não permitir que se volte atrás na aplicação de uma regra. A regra escolhida é aplicada sobre a base de dados, gerando uma nova base de dados a partir da qual uma nova regra será aplicada. As vantagens são a economia de memória, pois a árvore de busca é pequena e sua velocidade de aplicação, porém nem sempre resulta em uma resposta única.

O Backtracking, segundo o autor, é o processo mais simples na utilização de tentativas, no qual pontos de retorno são marcados e, após a conclusão de que uma regra foi mal aplicada, retorna-se ao ponto e se aplica nova regra. Isso permite a abertura de vários ramos da árvore ao invés de somente um como na busca irrevogável. No Backtracking o critério de escolha das regras deve ser simples, pois do contrário este processo rápido e barato pode se tornar caro a ponto de ser mais útil a utilização de heurísticas.

Em seguida o autor escreve sobre a busca heurística e informa que na buscar heurística todos os ramos que são abertos são guardados e, a medida que a busca se faz, alguns ramos são expandidos e outros permanecem intocados. Em um certo momento da busca, um ramo que não fora expandido pode se tornar atraente e vir a ser expandido. Desta forma a busca se transfere de ramo, mantendo os demais ramos prontos para uma futura expansão caso seja necessário. Segundo o autor, o consumo de memória é maior do que na busca irrevogável e mesmo no backtracking, entretanto seus resultados tendem a ser melhores.

O autor entra mais a fundo e apresenta duas formas de busca heurística: uma por largura e outra por profundidade. Informa que ambos os processos são desinformados pois ordenam os nós da lista sem conhecimento específico do problema.

Em seguida, o autor apresenta a definição de heurísticas. E informa que a melhor forma de representar uma heurística é através da definição de uma função que associa um valor a cada nó gerado na árvore de busca.

Segundo o autor, a escolha por uma boa função de avaliação é fundamental para a eficiência do processo. Geralmente, ainda segundo o autor, a função ideal de avaliação F( n ) é composta de duas partes. 1) G( n ), que fornece o custo (o número de regras aplicadas) para se caminhar do nó inicial s para o nó n e 2) H( n ), que calcula o custo para se caminhar do nó n ao nó final t. Ou seja, que F( n ) = G( n )+H( n ) fornece o custo total para se ir do nó inicial s ao nó final t passando-se obrigatoriamente por n.

Por fim, o autor disserta sobre o custo da busca heurística. Na busca totalmente informada, tem-se um alto custo no processamento das heurísticas, pois as mesmas nos fornecem com exatidão o nó mais promissor a ser expandido com exatidão, mas tem-se um baixo custo de aplicação de regras, pois não serão aplicadas regras inúteis que gerem ramos não promissores. Na busca desinformada tem-se o oposto. O custo no processamento das heurísticas é pequeno (quase nulo), pois elas são simples, porém aplica-se um grande número de regras para a geração da árvore de busca na tentativa de chegar ao nó final.

Espero que tenham gostado do artigo! Qualquer dúvida escreva para mim.

Até o próximo artigo!

Márcio Pulcinelli @ OminaVincit !!!


Introdução aos Algoritmos Genéticos

image No texto "Algoritmos Genéticos", de Luís Alfredo Vidal de Carvalho, publicado no livro DATAMINING, o autor comenta que assim como as redes neurais artificiais têm origem e forte analogia com a Neurobiologia, os algoritmos genéticos surgiram de uma metáfora com a Teoria da Evolução das Espécies de Darwin. Segundo o autor, nome algoritmos genéticos é equivocado, pois se trata de uma heurística geral de busca de solução para problemas e não de um algoritmo propriamente dito.
 
Segundo apresentado no texto pelo autor, Qualquer problema de datamining que possa ser definido como a maximização ou minimização de alguma função pode ser a princípio, resolvida com um algoritmo genético. Ou seja, problemas de classificação, análise de agrupamentos, aprendizado de redes neuronais, entre outros podem ser resolvidos por esta técnica.
 
Em seguida, o autor apresenta sucintamente a teoria da evolução das espécies de Darwin dizendo que a Natureza possuiu em algum momento da existência deste planeta os meios para modificar os seres vivos a cada geração. Estas modificações ocorreram através de alterações do código genético destes seres, seja por mutações aleatoriamente produzidas por radiações ionizantes, vírus ou mesmo ação química. Estes seres vivos com código genético alterado se reproduziram em combinação com os seres vivos típicos de suas espécies naquele momento, produzindo uma nova geração de seres vivos que incorporou de alguma forma as mutações ocorridas.
 
O autor disserta sobre os cromossomos expondo que o código genético que armazena todas as instruções necessárias para o funcionamento celular é representado por uma coleção de genes organizados sequencialmente em uma estrutura chamada cromossomo. O gene é a "unidade" básica das características do ser vivo e as espécies vivas possuem numerosos genes organizados em dezenas de cromossomos armazenados no núcleo da célula. O material presente no código genético (genótipo) fornece propriedades básicas ao ser vivo que, sob a influência do meio-ambiente acabam por gerar o ser vivo propriamente dito (fenótipo).
 
Após dissertar sobre os cromossomos, o autor disserta sobre as mutações e informa que no processo de mutação, algum gene é alterado aleatoriamente, levando a um novo gene cuja expressão futura (fenotípica) não se pode prever a priori. Certas mutações levarão à geração de fenótipos mais adaptados ao meio-ambiente permitindo a continuidade da espécie diante de doenças, escassez de alimentos, clima, entre outros fatores. Outras mutações produzirão seres vivos com fenótipos mal adaptados que não sobreviverão às hostilidades do seu meio-ambiente.
 
Em segunda no texto o autor apresenta a questão da reprodução informando que o processo de reprodução permitirá que os cromossomos de um ser vivo se combinem com os cromossomos de outro ser vivo, formando um novo ser com características novas que serão colocadas à prova diante dos desafios da Natureza no período e no local em que este ser viver. No processo de reprodução, duas células haploides, com apenas metade dos cromossomos da espécie, se unem formando uma célula diploide, contendo todos os cromossomos necessários à definição da espécie. Os cromossomos passam por uma etapa de pareamento, quebra e troca de material genético chamada "crossing-over" na qual o material genético de um dos seres vivos é combinado com o material genético do outro ser. Os cromossomos resultantes são, então, uma combinação dos genótipos das seres envolvidos e um fenótipo novo, combinado, resultará.
 
Segundo o autor, O primeiro passo na utilização desta teoria para a solução de problemas é definir um conjunto de genes que representem as características do problema em questão. Se o problema possui n variáveis independentes, estas passam a ser os n genes do "cromossomo" que define o problema. O cromossomo nada mais é que as 71variáveis dispostas em uma sequência (linha).
 
Ainda segundo o autor, No algoritmo genético, geramos inicialmente um número par "k" de cromossomos que representam soluções potenciais para o problema. Após a definição do cromossomo, precisamos avaliar de alguma forma o grau de adaptação daquele "ser vivo" (solução) ao ambiente. Isto é feito definindo se uma função de adaptação que mede quão boa é a solução ou quão adaptado é o "ser" em questão. Esta nova geração de cromossomos terá, então, uma maior quantidade de indivíduos mais adaptados ao ambiente (soluções melhores) do que a geração anterior. Esta nova geração sofrerá mutações em seus genes ao acaso e isto resultará em "seres" novos cujas características poderão ser de melhor ou pior adaptação ao ambiente (melhores ou piores soluções). Estes novos seres, mutantes ou não, sofrerão o crossing-over, pois seus cromossomos se parearão e trocarão material genético entre si. Assim, os k cromossomos são agrupados aleatoriamente em pares e um ponto de quebra é escolhido, também aleatoriamente.
 

Para finalizar, o autor apresenta a descrição dos passos do algoritmo genético:

1. Representar as variáveis do problema em genes organizados em uma sequência chamada cromossomo;

2. Escolher aleatoriamente, ou utilizando uma heurística, um número par k de cromossomos que são soluções iniciais para o problema em questão;

3. Definir uma função de adaptação que mede quão boa é uma solução para o problema, ou seja, quão adaptado aquele cromossomo é;

4. Reproduzir os "k" cromossomos, fazendo cópias dos mesmos em função de seus graus de adaptação; Se existe algum cromossomo com grau de adaptação muito elevado, podemos parar o algoritmo pois este cromossomo representa a solução;

5. Sortear aleatoriamente com uma probabilidade pequena (menor que 0,0l) um gene para ser alterado para um novo valor, também aleatório, representando o processo de mutação;

6. Formar aleatoriamente pares com os k cromossomos;

7. Escolher aleatoriamente para cada par um ponto de quebra para que se realize o "Crossing-over";

8. Trocar todos os valores das variáveis (genes) após o ponto de quebra, gerado novas soluções para o problema a partir da combinação das soluções já existentes;

9. Voltar ao passo 4.

 

Espero que tenham gostado do artigo. Qualquer dúvida entre em contato.

Márcio Pulcinelli @ OminaVincit

Referências

Luís Alfredo Vidal de Carvalho – Datamining: a mineração de dados no marketing, medicina, economia, engenharia e administração.