Falar de inteligência artificial é falar de LLM, certo? Mais ou menos. As redes neurais são assunto fundamental no vasto universo de pesquisa neste campo, e muitas vezes um único artigo inovador captura a atenção da comunidade global. É esse o caso das LLNs. Não, não é LMM, não escrevemos errado! 😅
E por falar de LMM, você pode saber tudo sobre esse modelo de linguagem da inteligência artificial clicando aqui!
LNN significa redes neurais líquidas (Liquid Neural Networks, em inglês). Embora o termo remonte à pesquisa de 2018, foi somente após o lançamento das Liquid Time-constant Networks (LTCs – Redes de Constante de Tempo Líquido), no final de 2020, que uma maior parte da comunidade científica tomou conhecimento. E se você é novo no termo, você não está sozinho.
Para uma introdução mais popular a este trabalho pioneiro, não há guia melhor que Ramin Hasani, principal cientista de inteligência artificial e aprendizado de máquina no Grupo Vanguard, e afiliado de pesquisa no CSAIL MIT. Hasani foi o autor principal do artigo que definiu o assunto. Ele oferece uma perspectiva esclarecedora durante sua palestra TEDx no MIT. Em suas palavras, essas redes neurais permanecem adaptáveis após o treinamento, ajustando-se continuamente com base em novas entradas.
O termo “líquido” sinaliza a adaptabilidade e flexibilidade da rede. No entanto, o verdadeiro divisor de águas aqui é a ênfase em reduzir o tamanho dessas redes. Em vez de expandir, a ideia é otimizar com menor quantidade de nós (entenda “nós” como se fossem neurônios sintéticos), mas significativamente mais eficientes. Para dar uma ideia da potência, imagine dirigir um carro usando apenas 19 nós através de LNN, em comparação com massivos 100.000 nós usados em outras redes mais robustas.
O MIT, pioneiro nesta pesquisa, destacou este aspecto, apontando que o uso de equações diferenciais para cada nó, resulta que o comportamento exato da rede pode ser previsto usando menos nós, tornando o processo mais rápido e menos intensivo em recursos.
O que realmente chama a atenção foi o uso potencial de LNN em robótica. A ideia de empregar essas redes em cenários do mundo real, especialmente em robôs que observam e agem continuamente, parece promissora.
Além disso, a eficiência desses sistemas é impressionante. Pense em realizar tarefas de raciocínio complexo usando um processador de alto desempenho pequeno, em vez de hardware externo pesado ou recursos na nuvem. Vale a pena notar também que esses sistemas fluidos abordam o famoso dilema “caixa-preta” da inteligência artificial, em que os processos de redes neurais complexas permanecem um enigma (clica aqui pra entender melhor o que é caixa-preta). Maior transparência aqui pode ser a chave para eliminar vieses e garantir aplicações de tecnologia mais seguras, lembrando o incidente fatal com a Tesla em 2016.
Ao contrário de outras redes neurais como o LLM, que ficou famoso com a febre atual da inteligência artificial, o modelo LNN precisa de “séries temporais” de dados. Comparando o LNN com a percepção humana, Hasani diz que o modelo também precisa ser alimentado com séries sequenciais como, por exemplo, vídeos, – e isso pode ser considerado uma desvatangem.
Com o aumento do interesse e potencial em torno da LNN, o pessoal da Tech Crunch bateu um papo com com Daniela Rus, co-autora do artigo e chefe do MIT CSAIL, e a especialista trouxe insights importantes que vamos resumir aqui pra você:
Redes neurais líquidas: avanço para robótica e para a inteligência artificial
Olha só as motivação e benefícios dessa novidade:
1. Restrições de Hardware: Redes neurais líquidas são uma resposta às restrições de hardware enfrentadas pelos sistemas robóticos móveis, permitindo que realizem cálculos em plataformas compactas, – o que hoje é uma limitação para que a tecnologia dos sistemas inteligentes avancem.
2. Decisões mais transparentes: Estas redes são menos misteriosas que as tradicionais, tornando mais fácil para os usuários entenderem como as decisões são tomadas (a coisa da caixa-preta, sabe?), o que poderia ajudar na questão das decisões imprevisíveis das atuais redes neurais.
3. Desempenho focado na tarefa: Em vez de depender muito do contexto geral, redes neurais líquidas concentram-se mais na execução da tarefa em questão.
4. Garantias de segurança: Com ferramentas como o que ela chamou de “BarrierNet”, é possível adicionar camadas de segurança que garantem que os robôs operem dentro de limites seguros.
5. Influência da inteligência artificial generativa na robótica: A IA generativa é vista como uma ferramenta poderosa no desenvolvimento da robótica. Ela pode desempenhar um papel na solução de problemas complexos do campo, facilitando movimentos mais fluidos e humanos nos robôs e ajudando no design de novos sistemas.
Achava que já tinha visto de tudo, né? É melhor ir se acostumando que quando se trata de inteligência artificial a velocidade das mudanças é vertiginosa! É quase impossível dominar todo o campo. Se tiver algo que você tenha dúvida, escreve pra gente que corre preparar um material pra te ajudar!
Fonte: TechCrunch