Table of Contents
A Arte de Escrever Artigos Científicos
Esta página complementa o conteúdo apresentado aqui com exemplos específicos para cada item.
Exemplos de Título
Artigos escritos por brasileiros
- Low Cost BIST Techniques for Linear and Non-Linear Analog Circuits: M. NEGREIROS et al @ DATE 2006 – dissertation award
- Updating relations through XML Views : V. P. BRAGANHOLO et al @ CTD 2005 – Primeiro lugar
- The Effectiveness of Automatically Structured Queries in Digital Libraries: M. A. GONÇALVES et al @ JCDL 2004 – best student paper award
- Operadores de Seleção por Similaridade para Sistemas de Gerenciamento de Bases de Dados Relacionais: A.S. ARANTES et al @ SBBD 2003 – best paper award
- Taming Heterogeneous Aspects with Crosscutting Interfaces : C. CHAVEZ et al. @ SBES 2005 – best paper award
Artigos clássicos
- The Entity-Relationship Model: Toward a Unified View of Data: PETER CHEN @ VLDB 1975
- A Relational Model of Data for Large Shared Data Banks: E.F. CODD @ C.ACM 1970
- Concurrency and Recovery in Data Base Systems: C. MOHAN @ IEEE Db. Eng. Bulletin 1985
- Evaluating Software Complexity Measures: E.J. WEYUKER @ TSE 1988
- Marching cubes: A high resolution 3D surface construction algorithm : W.E. LORENSEN, H.E. CLINE @ SIGGRAPH 1987
- BIRCH: An Efficient Data Clustering Method for Very Large Databases: T. ZHANG et al @ SIGMOD 2006
- Developing Multimedia Applications with the WinWin Spiral Model: B. W. BOEHM et al @ ESEC/FSE 1997 Best paper awards
- Relaxed Online Support Vector Machines for Spam Filtering: D. SCULLEY et al @ SIGIR 2007 [student paper]
- Cloud Control with Distributed Rate Limiting: B. RAGHAVAN et al @ SIGCOMM 2007 [student paper]
- Two-Variable Logic on Data Trees and XML Reasoning: M. BOJANCZYK et al @ PODS 2006
- Joint Design-Time and Post-Silicon Minimization of Parametric Yield Loss using Adjustable Robust Optimization: M. MANI et al @ ICCAD 2006
- To Search or to Crawl? Towards a Query Optimizer for Text-Centric Tasks: P. IPEIROTIS et al @ SIGMOD 2006
- Modeling the relative fitness of storage: M. MESNIER @ SIGMETRICS 2007
Citeseer Most Cited 2006
- Investigating The Integration of Gridcomputing and Metamodeling
- Practical Group Signatures without Random Oracles
- YA-TRAP: Yet Another Trivial RFID Authentication Protocol
Citeseer Most Cited 2005
- Universally Composable Security: A New Paradigm for Cryptographic Protocols
- Energy-Efficient Target Coverage in Wireless Sensor Networks
- Session-Key Generation Using Human Passwords Only
Citeseer Most Cited 2004
- Building a Large Annotated Corpus of English: The Penn Treebank
- Rapid Object Detection Using a Boosted Cascade of Simple Features
- Trace-Driven Memory Simulation: A Survey
Exemplos de Resumo
A tabela a seguir apresenta exemplos de resumos. Cada resumo é subdividido em seus componentes principais: escopo, objetivos, estado-da-arte, resultados…
MORO et al – WWW 2006 | |
---|---|
Escopo | Structural summaries are data structures that preserve all structural features of XML documents in a compact form. |
Objetivos | We investigate the applicability of the most popular summaries as access methods within XML query processing. In this context, issues like space and false positives introduced by the summaries need to be examined. |
Resultado | Our evaluation reveals that the additional space required by the more precise structures is usually small and justified by the considerable performance gains that they achieve. |
SANTOS et al @ SBBD 2006 | |
---|---|
Contexto Geral | A Web é abundante em páginas que armazenam dados de forma implícita. |
Problema | Em muitos casos, estes dados estão presentes em textos semiestruturados sem a presença de delimitadores explícitos e organizados em uma estrutura também implícita. |
Solução | Neste artigo apresentamos uma nova abordagem para extração em textos semi-estruturados baseada em Modelos de Markov Ocultos (Hidden Markov Models - HMM). |
Estado-da-Arte e Método | Ao contrário de outros trabalhos baseados em HMM, nossa abordagem dá ênfase à extração de metadados além dos dados propriamente ditos. Esta abordagem consiste no uso de uma estrutura aninhada de HMMs, onde um HMM principal identifica os atributos no texto e HMMs internos, um para cada atributo, identificam os dados e metadados. Os HMMs são gerados a partir de um treinamento com uma fração de amostras da base a ser extraída. |
Resultados | Nossos experimentos com anúncios de classificados retirados da Web mostram que o processo de extração alcançáveis de qualidade acima de 0,97 com a medida F, mesmo se esta fração de treinamento é pequena. |
MORO et al @ VLDB 2007 | |
Contexto Geral | Publish-subscribe applications are an important class of content-based dissemination systems where the message transmission is defined by the message content, rather than its destination IP address. |
Contexto Específico | With the increasing use of XML as the standard format on many Internet-based applications, XML aware pub-sub applications become necessary. In such systems, the messages (generated by publishers) are encoded as XML documents, and the profiles (defined by subscribers) as XML query statements. |
Problema | As the number of documents and query requests grow, the performance and scalability of the matching phase (i.e. matching of queries to incoming documents) become vital. |
Estado-da-arte | Current solutions have limited or no flexibility to prune out queries in advance. |
Solução/método | In this paper, we overcome such limitation by proposing a novel early pruning approach called Bounding-based XML Filtering or BoXFilter. The BoXFilter is based on a new tree-like indexing structure that organizes the queries based on their similarity and provides lower and upper bound estimations needed to prune queries not related to the incoming documents. |
Resultados | Our experimental evaluation shows that the early profile pruning approach offers drastic performance improvements over the current state-of-the-art in XML filtering. |
Introdução
Sugestão 1 (um ou dois parágrafos por item)
- Identifica a área de interesse (palavras do título)?
- Contexto: revisão básica do estado-da-arte
- Propósito: e/ou hipótese sendo investigada
- O propósito desse trabalho é definir…
- Esse trabalho propõe três métodos para…
- Solução a ser detalhada
- Característica fundamental, técnica/metodologia, vantagens
- Organização
Sugestão 2 (um ou dois parágrafos por item)
- Contexto, motivação
- O problema em questão
- Trabalhos anteriores relacionados (limitações)?
- Lista de contribuições, resultados principais
- Organização
Exemplo 1
Cloud Control with Distributed Rate Limiting, Barath Raghavan et al SIGCOMM 2007
A introdução começa com uma revisão do estado-da-arte e exemplos práticos do contexto
Yesterday’s version of distributed computing was a selfcontained, colocated server farm. Today, applications are increasingly deployed on third-party resources hosted across the Internet. Indeed, the rapid spread of open protocols and standards like Web 2.0 has fueled an explosion of compound services that script together third-party components to deliver a sophisticated service [27, 29]. These specialized services are just the beginning: flagship consumer and enterprise applications are increasingly being delivered in the software-as-a-service model [9]. For example, Google Documents, Groove Office, and Windows Live are early examples of desktop applications provided in a hosted environment, and represent the beginning of a much larger trend.
[etc etc etc]
A introdução define o problema em questão, com exemplos práticos novamente
One of the key barriers to moving traditional applications to the cloud, however, is the loss of cost control [17]. In the cloud-based services model, cost recovery is typically accomplished through metered pricing. Indeed, Amazon’s EC2 charges incrementally per gigabyte of traffic consumed [3] [etc etc etc] Limiting global resource consumption in a distributed environment, however, presents a significant technical challenge. Ideally, resource providers would not require services to specify the resource demands of each distributed component a priori; such fine-grained measurement and modeling can be challenging for rapidly evolving services. Instead, they should provide a fixed price for an aggregate, global usage, and allow services to consume resources dynamically across various locations, subject to the specified aggregate limit.
A introdução segue especificando explicitamente quais partes do problema serão cobertas no artigo, com exemplos práticos
In this paper, we focus on a specific instance of this problem: controlling the aggregate network bandwidth used by a cloud-based service, or distributed rate limiting (DRL). Our goal is [etc etc etc]. For example, a resource provider with 10 hosting centers may wish to limit the total amount of traffic it carries for a particular service to 100 Mbps. [etc etc etc] The key challenge of distributed rate limiting is to allow [etc etc etc]. For example, TCP flows in a traffic aggregate will share bandwidth in a flow-fair manner [6]. The key technical challenge to providing this abstraction is measuring the demand of the aggregate at each limiter, and apportioning capacity in proportion to that demand.
A introdução encerra com a lista de contribuições separadas por tópicos: This paper makes three primary contributions:
- Rate Limiting Cloud-based Services. We identify a key challenge…
- Distributed Rate Limiter Design. We present the design and…
- Evaluation and Methodology. We develop a methodology…
Exemplo 2
Uma Proposta para o Uso de Detecção de Versões de Páginas Web para Melhoria do Desempenho do Algoritmo de PageRank, Glauber Rodrigues da Silva, et al ERBD 2008 (Escola Regional de Banco de Dados)
A introdução é bem dividida em cinco parágrafos:
1. contexto: Internet e ranking de páginas 2. estado-da-arte: algoritmo pageRank 3. problema: frequente atualização da Internet define versões 4. objetivos: mecanismo de detecção automática de versões 5. organização
O texto completo dessa introdução ficou assim:
A natureza distribuída das informações disponíveis na Internet levou à busca constante de maneiras eficientes de executar consultas sobre uma grande coleção de documentos. Os motores de busca para Web realizam essa tarefa, porém, devido ao grande tamanho da coleção, o número de documentos relevantes para uma consulta pode facilmente ter milhares de itens. Devido a essa quantidade de informação, os algoritmos utilizados na área de recuperação de informação tradicional não obtiveram resultados satisfatórios, visto que realizavam uma análise sobre o conteúdo das páginas para montar um ranking. A estrutura de links comum nos documentos HTML fornece uma maneira de estimar quais são as páginas mais “populares”, partindo-se da premissa de que quanto maior o número de links que apontam para uma certa página (links esses vindos também de páginas populares), mais popular essa página é.
Os algoritmos que levam em conta essa estrutura de links na montagem do ranking dos resultados de uma pesquisa são chamados de algoritmos de análise de links. O algoritmo de PageRank [Page, Brin, Motwani and Winograd 1998] é o que mais tem destaque nesta família de algoritmos. O termo PageRank é comumente atribuído a um número que diz o quanto uma página Web é relevante na Internet, ou seja, quanto maior esse número, maior será a relevância da página.
No entanto, a velocidade em que a estrutura da Internet se modifica acaba por trazer alguns problemas ao algoritmo de PageRank. Novas versões de uma página Web com alto grau de relevância não irão ter o mesmo grau de relevância da página original, mesmo se tratando de versões de um mesmo documento. Por exemplo, considerando uma página Web p, um fator importante para constituir o ranking pelos motores de busca é a quantidade de outras páginas que apontam para p. Contudo, novas versões desta página terão uma baixa taxa de links que apontam para elas (links entrantes), pois as páginas que apontam para p não sabem da existência de suas novas versões. Nesse contexto, a detecção de versões pode melhorar o posicionamento no ranking de versões baseado nos links que apontam para p.
Neste contexto, o objetivo deste trabalho é especificar uma proposta de um mecanismo para detecção automática de versões de páginas Web, visando melhorar o cálculo do PageRank. Pretende-se fazer com que o grau de relevância de uma página seja computado, considerando o escore de suas versões antigas, mantendo assim, o grau de importância que a página obteve ao longo do tempo. Em outras palavras, isto significa que uma nova versão da página ou a alteração de sua localização não causa prejuízo ao seu posicionamento no ranking de resultados do motor de busca. Para validar a proposta foram realizados experimentos com o motor de busca de código aberto Nutch [Nutch 2007]. A principal contribuição desse trabalho é apresentar uma proposta para o uso de detecção de versões de páginas Web para melhoria do desempenho do algoritmo de PageRank.
O texto deste trabalho está organizado da seguinte forma: na seção 2 é apresentada a base conceitual para a compreensão do funcionamento dos motores de busca para Web. Na seção 3, são apresentados os trabalhos relacionados. Na seção 4, são apresentados os experimentos realizados com o Nutch e uma proposta de detecção de versões de páginas Web para a melhoria de performance do algoritmo de ranking utilizado pelo Nutch. Por fim, a seção 5 traz as conclusões do trabalho e trabalhos futuros.
Corpo
O corpo do artigo certamente é a parte mais maleável. Aqui estão algumas sugestões de títulos de subseções de artigos.
ARANTES @ SBBD 2003 1. Introdução
2. Trabalhos Relacionados 3. Motivação e Conceitos Fundamentais 4. Composição de Operadores por Similaridade: os Novos Algoritmos 5. Experimentos Realizados 6. Conclusões e Trabalhos Futuros
BRAGANHOLO @ CTD 2005
1. Introduction 2. Related Work 3. Query Trees 4. Update Language 5. Mapping 6. Summary and Concluding Remarks
LORENSEN @ SIGGRAPH 87
1. Introduction 2. Information flow for 3D medical algorithms 3. Related work 4. Marching cube algorithm 5. Enhancements of the basic algorithm 6. Implementation 7. Results 8. Conclusions
WEYUKER @ TSE 88
1. Introduction 2. Definitions 3. Complexity Measures 4. Desired Properties of Complexisty Measures 5. Conclusions, Summary, and Future Directions
ZHANG @ SIGMOD 1996
1. Introduction
2. Summary of Relevant Research 3. Background 4. Clustering Feature and CF Tree 5. The BIRCH Clustering Algorithm 6. Performance Studies 7. Summary and Future Research
RAGHAVAN @ SIGCOMM07
1. Introduction 2. Classes of Clouds 3. Limiter Design 4. Evaluation Methodology 5. Evaluation 6. Related Work 7. Conclusion
FONSECA @ SBBD 2007
1. Introdução
2. Contextualização do Trabalho 3. GeoDWM - Geographical DataWarehouse Metamodel 4. Estudo de Caso 5. Trabalhos Relacionados 6. Conclusões e Trabalhos Futuros
PEREIRA @ SBBD 2006
1. Introdução 2. Materialização de Documentos AXML 3. Busca Local Estocática com Múltiplas Condições de Parada 4. SiMAX – Um Simulador para a Materialização de Documentos AXML 5. Avaliação da Estratégia Proposta 6. Trabalhos Relacionados 7. Conclusão e Trabalhos Futuros
Conclusão
Uma conclusão bem escrita reinforça o entendimento do leitor sobre o artigo.
Exemplo
Cloud Control with Distributed Rate Limiting, Barath Raghavan et al SIGCOMM 2007
Neste exemplo, as partes da conclusão ficam bem claras: contexto global, contexto específico, problema, resultados.
As cloud-based services transition from marketing vaporware to real, deployed systems, the demands on traditional Web-hosting and Internet service providers are likely to shift dramatically. In particular, current models of resource provisioning and accounting lack the flexibility to effectively support the dynamic composition and rapidly shifting load enabled by the software as a service paradigm. We have identified one key aspect of this problem, namely the need to rate limit network traffic in a distributed fashion, and provided two novel algorithms to address this pressing need. Our experiments show that naive implementations based on packet arrival information are unable to deliver adequate levels [etc etc etc] Our results demonstrate that it is possible to recreate, at distributed points in the network, the flow behavior that end users and network operators expect from a single centralized rate limiter. Moreover, it is possible [etc etc etc]
Revisada em 02/05/2008