Computação Autonômica
Origem: termo introduzido por Paul Horn em março de
2001 perante a Academia Nacional de Engenheiros da Universidade de Harvard.
Paul Horn era vice presidente de pesquisa de IBM.
Objetivo: liberar
os administradores de sistemas dos detalhes de operação e manutenção e prover
aos usuários uma máquina que trabalhasse em desempenho 24/7. Investimento da
IBM: U$2 bilhões
Desafios científicos:
·
Abstração de comportamento e modelos.
·
Técnicas de otimização com modelos
parametrizáveis. O instituto Santa Fé propôs o uso de algoritmos genéticos.
·
Teoria da Robustez
·
Aprendizado e teoria de otimização
·
Teoria de negociação
·
Modelo estatístico
Precisa-se
de cientistas que estudem dinâmicas não lineares e complexidade para novas
teorias. Pesquisadores em diversas áreas.
Projeto de Pesquisa
O objetivo deste projeto de pesquisa é
desenvolver RSSFs autonômicas ou auto-gerenciadas. A computação autonômica
[Hennessy, 2002, IBM, 2003, Kephart et al., 2003] é um tema recente de pesquisa
que define sistemas que gerenciam a si próprios de acordo com os objetivos do
administrador e sem a intervenção humana direta. Este novo paradigma tem sido
explorado por algumas instituições como NASA [Clancy, 2002], Microsoft, Sun,
Cisco, HP e IBM [Cowley, 2004], sendo que esta última recentemente investiu
dois bilhões de dólares em pesquisas na área.
Sendo as RSSFs formadas por nós
sensores autônomos e que operam em áreas remotas, propomos o uso do paradigma
de computação autonômica na construção de sistemas embutidos para RSSFs
auto-gerenciadas.
Uma RSSF autonômica é responsável por
configurar e reconfigurar a si própria sem intervenção humana direta. Conforme
o caso, uma RSSF autonômica deve organizar-se em grupos (auto-organização),
adaptar-se a mudanças no ambiente e mudanças em sua topologia e conectividade
(auto-configuração). Uma RSSF autonômica deve otimizar seu funcionamento e
monitorar seus componentes para configurá-los às diferentes densidades de nós e
cargas de trabalho para atender aos requisitos de qualidade de serviço. Ela
deve implementar serviços de auto-diagnóstico para detectar problemas ou
problemas em potencial tais como áreas descobertas decorrentes da baixa
densidade ou desperdício de energia e perdas de informação em função da alta
densidade de nós. Uma RSSFs autonômica deve recupera-se dos problemas e eventos
extraordinários que causem mal funcionamento de seus componentes (auto-cura).
Uma RSSF autonômica deve detectar, identificar e proteger-se contra várias
ameaças (internas e externas) para manter sua segurança e integridade (auto-proteção).
Uma RSSF autonômica deve conhecer seu ambiente e o contexto onde realiza duas
atividades e agir de acordo com os requisitos de qualidade que foram
estabelecidos (auto-consciência). Uma
RSSF autonômica deve conhecer a si própria, assim como seus limites de operação
(auto-conhecimento). Uma RSSF produz e transporta os próprios dados
(auto-serviço). Ela deve negociar a realização de um serviço a partir de três
níveis de qualidade: qualidade de sensoriamento, qualidade de processamento e
qualidade de disseminação [Ruiz, 2003].
Alguns serviços automáticos de
gerenciamento que permitem definir uma RSSFs autonômica foram inicialmente
pesquisados e desenvolvidos utilizando como base a arquitetura MANNA [Ruiz,
2003].
Saiba mais....
Clancy, D. J. (2002). NASA
Challenges in Autonomic Computing. Almaden Institute,
Cowley, Stacy (2004). IBM, HP, MS discuss autonomic
computing strategies. Infoworld.
Disponível em http://www.infoworld.com/article/04/05/19/HNhpibm1.html
Hennessy, J. (2002). Back to the Future: Time to
Return to Some Long-Standing Problems in Computer Science. Almaden Institute,
IBM (2003). Autonomic Computing – Creating
Self-managing Computing Systems. Disponível em http://www-3.ibm.com/autonomic/index.shtml.
Kephart,
Jeffrey and Chess, David M.(2003). The Vision of Autonomic Computing. IEEE
Computer Magazine 36(1): 41-50.