quinta-feira, 6 de outubro de 2016

Revisão Sistemática da Literatura: Como Obter Resultados Úteis - Joselaine Valaski - Tutorial@Ontobras 2017

Revisão Sistemática da Literatura: Como Obter Resultados Úteis
Joselaine Valaski

A Revisão Sistemática (RS) é um meio de avaliar e interpretar toda a pesquisa disponível relevante para uma questão de pesquisa, tópico de interesse ou fenômeno de interesse, independente de língua ou meio de publicação. Porém, deve ser também uma síntese dos mais qualificados estudos científicos para um tópico/questão de pesquisa.

É uma tarefa bastante complexa, que requer bastante organização, paciência e tempo. É importante compartilhar com colegas que já fizeram, para saber das novidades na área, do que dá certo ou não, enfim, trocar experiências sobre o assunto.

Ela utiliza:
Guia proposto por Kitchenham et al (2004) - Procedures for Performing Systematic Reviews.

Razões para realizar:

  • sumarizar as evidências existentes relacionadas a uma determinada questão/tópico;
  • identificar lacunas nas pesquisas atuais com o objetivo de identificar áreas para futuras investigações;
  • prover um framework/background com o objetivo de posicionar apropriadamente novas atividades de pesquisa.

Definições:

  • Mapeamento sistemático: angaria informações iniciais, sem necessidade de leitura aprofundada para compreensão sobre o que foi feito; não há necessidade de objetivos/questões específicos; identificar lacunas é um objetivo muito comum em mapeamentos sistemáticos
  • Revisão sistemática: busca uma compreensão aprofundada do tópico/questão de pesquisa alvo; parte de objetivos e questões de pesquisa já específicas.
  • Survey: método de pesquisa que vem das ciências sociais, que usa questionários para levantar informações; segue etapas próprias.

Principais Passos

1) Definir o Objetivo da Revisão 

- normalmente, se inicia com um objetivo bastante genérico e, depois, isso vai se afunilando. Por isso, é preciso fazer um mapeamento sistemático  ou mesmo uma revisão informal (estudo exploratório) para chegar a esse objetivo. Outra ideia é realizar pilotos: selecionar uma única base e selecionar um grupo pequeno de artigos para começar a chegar ao objetivo.

- a exceção é quando a revisão atual é uma replicação de uma anterior, porque aí o objetivo já está definido.



2) Definir as Questões de Pesquisa

Essas questões ajudam a: a) atingir o objetivo da revisão; b) manter o foco, durante as atividades; c) classificação de resultados. 


Dicas:

  • os objetivos, questões etc. podem ir se ajustando com o decorrer da revisão
  • porém sempre tendo o cuidado de que os resultados atendam ao objetivo principal da RS
  • as questões de pesquisa podem emergir da leitura dos artigos selecionados em projeto piloto
  • elabore bem as questões, pois elas precisam ser claramente respondidas com os resultados obtidos.
Ferramentas usadas: excel, há um estudo que faz uma RS sobre as ferramentas usadas em RS (ela vai passar).

3) Definir as Palavras Chaves

Objetivo das palavras chaves: Definir um conjunto de palavra chave que retornem o maior número possível de trabalhos relevantes com o menor número possível de trabalhos irrelevantes.

Dicas:

  • Não se deve ter tanta pressa para defini-las
  • Testar palavras chaves, ex. teste em uma revisa ou conferência específica o retorno obtido com as palavras-chave usadas (verifique o que ficou dentro e o que ficou de fora para conferir se o objetivo das palavras chaves foi atingido) Se ficou trabalhos úteis de fora, verificar "o que está faltando para este trabalho retornar?"
  • Usar bases de dados conhecidas para elicitar palavras chave. Por exemplo: ela usou a IEEE para verificar as palavras usadas como requisitos; Outra ideia é verificar em artigos de conferência as palavras chaves usadas; 
  • Caso novas palavras chaves sejam inseridas após a coleta de artigos, é preciso retornar a todas as bases e refazer as buscas.
Antes de prosseguir com o trabalho, faça várias simulações para verificar se está tudo ali. É terrível quando encontramos trabalhos que deveriam fazer parte do conjunto de publicações selecionadas quando a RS está já avançada!

4) Escolher as fontes de busca (área da computação)
  • Science Direct
  • Scopus
  • IEEE
  • SpringerLink
  • ACM Digital
  • Repositório das conferências (aqueles que não são indexados por esses mecanismos)
Dicas: 
  • realizar buscas diretamente na base, pois apesar de ser mais trabalhoso, é mais confiável. pode ser que a string precise ser alterada para cada base específica;
  • não se sinta tentado a usar meta-bases; 
  • escolha bases que tenham acesso irrestrito; em questões de base para artigos comprados, indicar que houve alguns que ficaram de fora por conta de custo, ou pedir aos autores que enviem os artigos;
  • você precisa ver se bate com o seu objetivo e com a questão de que a RS tem que ter uma mostra significativa e de qualidade, mas não a ambição de ter TODOS os trabalhos (a menos que o objetivo da sua RS seja exatamente mostrar todas, mas não é normalmente);
  • André Menolli deu o testemunho de que usou 13 bases e o resultado seria praticamente o mesmo que se tivesse usado essas sugeridas pela Joselaine; 
  • os repositórios das conferências da área são importantíssimos;
  • usar um conjunto de artigos de controle, para verificar se as bases que classificam tais artigos retornam tais artigos, mediante a query que você executou;
  • deixar claro o que veio da pesquisa nessas bases ou em outros momentos da RS (por exemplo na fase de snowballing);
  • é preciso levar em consideração se é preciso recuperar livros (se for o caso, é bom usar o GoogleScholar, apesar de retornar muito lixo); isso depende muito da área de conhecimento (ou sub-área, dentro da Computação);
  • dependendo da sub-área da Computação, é preciso fazer buscas também em textos em português; a Fernanda sugere o uso de BDBComp. Andréia ressaltou que é necessário elencar as conferências brasileiras relevantes porque não há muitos sistemas que indexam artigos brasileiros. 
  • há bases que oferecem bastante recurso (ex. salvar a query para reutilização posterior, permitindo que você volte um tempo depois, para ver se entrou coisa nova); outras bases são bem primitivas. Portanto, é preciso aprender a usar cada base.

5) Definir o período e o tipo de publicação 


  • Depende da duração do projeto (mestrado ou doutorado)
  • Se já ha uma revisão anterior cobrindo um período, você pode usar o mesmo protocolo para complementá-la. 
  • Tipo de publicação: journal é o principal. Mas considerar também as conferências. Se forem muitas (e.x. mais de 2.000 artigos), incluir apenas as conferências mais relevantes na área.
6) Definir os campos de busca
  • Fulltext: é o mais confiável, porém a quantidade de retorno é grande, dependendo do escopo da pesquisa. A Joselaine usa este campo e, por isso, normalmente, vem muito lixo. Para filtrar, você vai procurando um a um nos artigos, usando as palavras chaves, para eliminar os irreleventes.
  • Abstract: pode ser usado em escopo bem definido, porém, às vezes, a comunicação do abstract é deficiente.

7) Definir critérios de inclusão/exclusão

  • não há definição universal, esses critérios são definidos caso a caso, conforme o objetivo da RS.
  • Exemplos do que podem ser critérios de exclusão: a) literatura cinzenta - grey literature (livros, teses, dissertações, etc.); b) artigos redundantes (artigos diferentes com resultados similares, ou seja duas versões do trabalho, uma mais estendida que a outra - considerar apenas  amais estendida); etc.
  • Esses critérios devem ser bem protocolados.
  • Definir na base o que já for possível excluir (e.g. não retornar teses) para evitar que esses trabalhos façam parte da coleção.
8) Definir os critérios de qualidade
  • é importante avaliar a qualidade e a credibilidade dos estudos primários para dar suporte ao processo de inclusão/exclusão e atribuir pesos para os estudo durante a síntese;
  • também não há um regra universal para isso, mas o objetivo é minimizar o viés e maximizar a validação;
  • exemplos de critérios: a) o estudo foi avaliado empiricamente (sim-1; não-0); b) as limitações estão claramente discutida (sim-1, parcial-0,5, não-0); c) houve aplicação na indústria (sim-1; não-0); d) o objetivo da pesquisa foi claramente definido (sim-1, parcial-0,5, não-0); e) quantos participantes tinham no trabalho, para serem relevantes estatisticamente; etc. Dependendo da nota, o artigo pode ser eliminado; 
  • ela coloca exemplos no slide de autores que já propuseram conjunto de critérios de qualidade e, esses conjuntos podem ser reutilizados.
9) Executar a pesquisa e selecionar os artigos

Executores:
  • ideal: minimamente dois pesquisadores precisam participar da seleção e, se necessário, um terceiro deve ser envolvido para situações de empasse. No entanto, se houver disponibilidade de mais pesquisadores, melhor; 
  • nem sempre mais é mais, se o pesquisador não tiver disponibilidade ou maturidade, isso pode atrapalhar;
  • quando não há disponibilidade dE dois pesquisadores full time, o segundo pesquisador pode ser acionado apenas em situações de empasse;
Selecionando os artigos:
  • a definição bem elaborada dos critérios de inclusão/exclusão ajudarão muito na leitura e classificação dos artigos;
  • usar o coeficiente de Kappa que mede o grau de concordância das avaliações feitas por diversos avaliadores; ao final, temos um grau de concordância para decidir levar ou não em consideração aquela determinada pesquisa. 
  • filtrar artigos no mínimo pela leitura do abstract (filtro pelo título não é confiável)
Registro da informação:
  • registrar quantidade de artigos encontrados
  • tabelar resultados 
  • ler e fazer os resumos dos trabalhos. Ela usou para isso o excel e a ferramenta Mendeley para referências bibliográficas. 
  • os resultados devem ser organizados de uma forma que tragam informação clara, útil, inovadoras;
  • as questões de pesquisa ajudam na organização desses resultados
  • informações sintetizadas em forma de gráficos, tabelas, etc., são mais interessantes do que um resumo de cada trabalho. Ela falou da experiência de que fez tabelas e gráficos mas também incluiu resumos de 60 trabalhos que ela julgava importantes, porém o revisor do artigo achou absurdo ter que ler e concluir sobre esses resumos. Ela precisou, assim, achar novas maneiras (gráficos, tabelas) para resumir as informações.
Dica:
  • a medida que vamos lendo os artigos, temos que registrar a parte direcionadas a como classificar e apresentar os resultados. Ela registrava tudo no Excel.
11) Escrever artigo
  • Consolidação dos resultados úteis e inovadores da revisão
  • Escolher conferência/journal. A limitação de número de páginas da conferência normalmente não permite a descrição da RS na íntegra. Por outro lado, publicar resultados parciais podem ajudar a gerar discussão e feedback para que o trabalho possa ser melhorado. 
  • Cuidar com o prazo de resposta do journal para que a RS não fique "caduca". No esperar e revisar várias vezes o trabalho a pedido do journal, houve uma outra publicação de RS com o mesmo objetivo que o dela.

Conclusão: ao concluir a sua primeira revisão sistemática é que você está pronto para começar uma revisão sistemática de verdade.

Ela apresenta nos artigos uma lista de Referências Bibliográficas que ela considera indispensável para quem vai trabalhar nesta área.

A Case for Cognitive Computing in the Oil & Gas Industry - Renato Cerqueira - Keynote@Ontobras 2017

A Case for Cognitive Computing in the Oil & Gas Industry 
Renato Cerqueira

IBM Research Lab has been recently open in Brazil. The research of this lab focuses on natural resources. His focus today is in the Oil and Gas industry.

Cognitive Computing is the use of computational learning systems to augment human cognitive capabilities and accelerate, enhance and scale human expertise to solve real world problems. Systems in this field:
  • Generate and evaluate hypotheses (learn and build knowledge)
  • Understand natural language (hear, see)
  • Interact more naturally with humans (reason, explore)
Informed Decision Making
Search x expert Q&A systems in Watson:

  • Understanding questions
  • produces possible answer and evidence
  • Analyses the evidence
  • Deliver the user: the answer, the evidence and the analysis result.
To calculate the evidence of a possible answer:
They apply different reasoning mechanisms to calculate the evidence and then use a formula to combine this, in a way a final score is calculated for each answer.

Watson Q&A Pipeline (interesting slide!)

see Watson videos on Youtube

Watson Oncology: this was one of the first applications.
  • Knowledge Representation and Reasoning: this system used the Snomed ontology 
  • The system analyses images (thus, computer vision techniques have now given Watson the ability to see).
Disruptive trends in the Oil and Gas industry - Work with Petrobras
Data is recognized as key to drive values. new methods required for new unconventional exploration, seismic technologies and data overload. 
  • Drilling companies report collecting 2T bytes per day of data (only 5% gets to the shore)
  • 80.000 sensors in a single modern platform
  • 300.000 publications per year, according to the American Petroleum Institute.
Cognitive computing is set to re-define workflows across the entire O&G value chain.

Selected Use Cases:

- UC1: Basin/Reservoir Knowledge Base Builder
There is usually an initial resistance from the company to give away their knowledge, but IBM explains that the KB will not be taken away, it belongs to the company.

- UC2: Basin/Reservoir Similarity Adviser

- UC3: Seismic Interpretation Adviser

- UC4: Capital Project Management Adviser
The challenge here was to combine different kinds of information from different sources.
Scientific committee - gathered people from different divisions of the company to agree on how information could be integrated 

- UC5: UC5: Drilling Adviser

- UC6: IoT-driven Reservoir Digital Twin

Problems for interoperability:
  1. uncertain or missing information (for some processes, the information is a must, for example, you must know the pressure in the pipes before opening valves); 
  2. need for evolving the applied conceptual models (including ontologies);
The KB is composed of the ontology + instances + (standard) inferences and rules
Ontology = class + relation + constraints

They face many challenges to go from text to KBs (he gave some ex. in a slide)

quarta-feira, 5 de outubro de 2016

Ontologias para Padrões de Especificação de Conteúdos Instrucionais - André Menolli - Tutorial@Ontobras 2017

Ontologias para Padrões de Especificação de Conteúdos Instrucionais
André Menolli

This work has been considered 2nd in the SBQS Thesis and Dissertation Competition.

His work concerns specifying instructional material to be used in educational platforms such as Moodle, for example. It is based on learning objects, learning units, etc.

Learning design - Interesting reference: Amorim et al., 2006. 

Main learning object standards: Dublin Core, LOM

Works relating standards and ontologies:
- There are several Ontologies based on LOM. E.g.: (Vicari, 2011) and (OBAA 2012). 
- There are works interpreting LOM, mapping it to Upper Level Ontologies. 

Ontology for Organizational Learning Object (OOLO)
He took an existing LOM ontology, improved it (using parts of it and complementing it) and a part of this ontology was also connected to FOAF.

SCORM - reference model for the development of educational multimedia content. For that, SCORM aggregates other standards.

There are not so many ontologies based on SCORM. 

O SCORM usa um padrão chamado IMS Learning Design, which enables to create designs based on different pedagogical theories (e.g. constructivism, behaviourism, etc.).

André made an ontology modelling the IMS LD standard. 

The Reload Editor is based on the IMS LD standard and enables one to create different courses based on this standard.

Content Package reune os recursos físicos utilizados em um curso. Existem também algumas ontologias que descrevem essa parte.

André proposed the Units of Organizational Learning Ontology (UOLO)

New technologies enable collaborative work and facilitate the social learning process. They interviewed 15 organizations in the Software Development field (established companies with good level of maturity quality model). Most of them use wiki, some use other tools. Published in the Information Systems Journal. The work concludes wiki is the best of the investigated tools for organizational learning.
Fizeram um trabalho em uma organização, baseado no monitoramento das buscas de funcionários no Google e inferindo dessas buscas o que os funcionários estavam procurando (o que precisam aprender). Depois, então, é possível propor cursos na plataforma baseada na UOLO para suprir essa demanda.

Discussion
- standars are described in xml schemas and are broadly used
- there are some works that discuss the standards semantics, but there is still room for discussion
- there are no work using foundational ontologies and very few practical applications.
- there are gaps in many standards (e.g. LOM)
- the standards may be extended
- the standards may not support many new resources (e.g. digital TV and extensions for mobile devices).
- the content rating may be used to provide the quality of the material to help us define courses by reusing material.

Manufacturing reference ontologies – a route to knowledge sharing and interoperability? - Bob Young - Keynote@Ontobras 2017



Manufacturing reference ontologies – a route to knowledge sharing and interoperability?
Bob Young - Loughborough University, UK

The main idea is to use ontologies to support Decision Making in Manufacturing. 

He points out the need for Manufacturing Reference Ontology

Manufacturing Ecosystem Activities (interesting slide!):

  • Strategic Management Activities
  • Product Design Tactical Planning Activities
  • Operations Management Activities
  • Shop Floor Activities 
Multiple software system support manufacturing decisions. It is very hard to interoperate them, usually this is very expensive and error prone.

Definitions he uses:
  • Foundational Ontology - context independent
  • Reference Ontology - broad context dependency
  • Domain Ontology - detailed context dependency
The IMKS Concept - very interesting diagram. He says: "this is the diagram that got us the money to do it"
The slide includes the manufacturing life cycle (activities presented above), then this life cycle is supported by World Models (libraries of semantically defined things, processes, relationships... This is supposed to provide interoperability, collaboration and terminology. And ultimately help decision making.

The IMKS approach does not ensure interoperability. Instead, it provides understanding of interoperability potential, allowing informed choices to be made.

He presents a very interesting example of viewpoint variation, i.e. one particular device being seen differently in the perspective of the designer and the manufacturer.

Linking production knowledge back to product design
There are different documents, sometimes in natural language, or structured in tables, or even using conceptual models, representing the Design view and the Production view. You must be able to extract and relate the knowledge from all of them.

Similar work has been done for assembly:
key reference concepts in design for assembly and assembly planning (Imram 2013). Equivalent extensions also needed for other manufacturing processes, e.g. forging, casting, etc. This is still a need. But, most importantly, the relationship between them must be found!

Every time a company changes a software system, things don't actually fit as they used to. And usually, you may spend from 12 to 18 months just  to make things fit again. Thus, there is an opportunity here for using ontologies to support a smoother transition to normality.

For that, you can apply a simple system to system requirements evaluation, in which for the output of one system to be useful it needs to match the need of the input of the other system.

This project involves: Collaboration Environments (CE), Business Model Development (BMD), Network Configurations (NC) and Risk Assessment (RA). The project concerns these topics with focus on Knowledge Sharing. 
The ontology environment was supposed to underly all the others (CE, BMD, NC and RA), providing the knowledge to interoperate them.

In Flexinet, a reference ontology supports KB construction and interoperation across software services (interesting diagram on slide)

The ontology was built in layers, going from foundational to enterprise specific ontologies. 
Level 0 - CORE (ULO) - foundational ontology
Level 1 - Systems (functions) - PLS-ISO 18629
Level 2 - Designed Systems
Level 3 (context) - Manufacturing Business System
Level 4 - Product-Service Lifecycle systems. Scope: Produce
Level 5 - Enterprise Specific
He says: "The bit that helps enterprises to interoperate must be common (thus, it should be standard!!!)."

There are several modules in the reference ontology, for the different aspects of Flexinet. 

Evaluation of the use of the Flexinet reference ontology: The reference ontology has ben used to build 4 end user knowledge bases; 74 queries have been developed to support the flexinet software services shown cross-domain knowledge sharing potential; etc.

Future works:
- extend the work for operational decision making (as it is now on strategic and tactical levels)
- extend the scope for in-factory operations (inlcuding links to cyber-physical systems
- extend the idea for other domains (outside manufacturing)

Two fundamental questions: 
1) the use of specialization levels (layers) seems to work, but do we have the right levels?
2) how do we make one ontology instead of ontology chucks (modules)?

Advancements in Intelligent Support for Collaborative Learning - Seiji Isotani - Tutorial@ONTOBRAS 2017


Advancements in Intelligent Support for Collaborative Learning
Seiji Isotani - http://isotani.caed-lab.com/

CAED - Applied Computing in Education Laboratory/Laboratorio de Computação Aplicada à Educação e Tecnologia Social

The approach comprehends 5 steps:

1) Take a real problem: That of Collaborative Learning

2) Organize the Knowledge

3) Build an Ontology

The work proposes that ontologies are used to formalize Collaborative Learning, considering different aspsects, for instance:

  • Learning Strategy (Pedagogical theories): learning goals, learning roles etc.
  • Domain Content Modeling 
  • etc.
He reports on lots of difficulties to convey the ontology to teachers, so they end up not using their method. 

4) Hide the Ontology

However, they start proposing different models, which are simpler to understand. For example, the Learner's Growth Model (LGM), which is a graph that shows the stages of development, through empty and full squares. 

The LGM maps cognitive theories to learning theory. Sooo interesting!!! 

To take the student from an empty state (no knowledge) to a full one (good knowledge), you follow paths in the graph moving to states where learners learn new skills XOR new knowledge. 

5) Apply the model and the ontology to solve the problem taken in 1)


LGM is a way of "hiding the ontology" so that people can understand the model and, at the same time, on the background, the ontology is still used for the benefit of the method. 

Another interesting result is

They made a lot of in vivo that proves that the tool actually work in practice, leading learners who had poor academic results to better ones.

They created a startup named MeuTutor and today, they have 50.000 students in Brazil using their system.

Book in Portuguese: 
It explains how to open the educational data for the community 

In this direction, there is also this initiative from another group: http://meututor.com.br/blog/


Ecossistemas de Inovação e Engenharia de Ontologias - Marcio Spinosa - Keynote@Ontobras 2017

Ecossistemas de Inovação e Engenharia de Ontologias
Marcio Spinosa - PUCPR

Brasil considerado ineficiente em capacidade de desenvolvimento de inovação

Ecossistemas para desenvolvimento de inovação surgem para responder ao desafio de melhorar esse quadro. A pesquisa dele focaliza:
·         -  Como funcionam
·        -   Como induzir
·        -   Como direcionar para melhorar custo vs benefício

Exemplos emblemáticos no mundo:
- Vale do Silício (surgiu por uma conjunção de fatores)
- Austin – segundo polo tecnológico dos EUA. Universidade do Texas, ATI – Austin Technology Incubator, ... (planejado, diferentemente do Vale do Silício, constituindo-se assim nos últimos 20 anos – tempo incrivelmente curto para ter se tornado tão evoluido)
- Singapura – segundo PIB/cápita do mundo (antes, eram tidos como uma das maiores pobrezas do oriente). Por que deu certo? Aproveitaram o que tinham de bom e foram construindo em cima disso. É tb uma cidade inteligente.

No Brasil:
Há 94 technoparks no Brasil, 28 consolidados com 939 empresas instaladas e 32.237 empregos diretos.
·      Florianópolis tem um ecossistema de inovação;
·      Technopuc (Porto Alegre),  
·      Porto Digital (Recife)
·      SEMPS (RJ)

Definição (inglês)
Innovation Ecosystem is an asset:
·      For urban and regional development, and
·      For competitiveness in the global knowledge economy.


Existe uma tipificação de ecossistemas, usando a analogia de vegetação - floresta tropical, ambiente de plantação e área de proteção ambiental. Todo ecossistema, não importando qual tipo, manipula conhecimento. Este é o item de valor (como na economia anterior, outros produtos eram valorizados).

A Engenharia de Ontologia pode contribuir? Como? Ele elencou 10 possibilidades:

1) OE can provide integration within the sociotechnical system.
2) OE can provide more stability for core attributes, remembering that Innovation Ecosystems are non-linear, complex and adaptive systems.
3) OE can help to overcome language barriers.
4) OE can put in evidence the human-centric perspective, ou seja, o empreendedor. an Innovation Ecosystem: is a human-centric system; is an intellectual capital intensive; has high-level education standards; has R&D as the main activity.
5) Knowledge is the main economic asset of an Innovation Ecosystem and needs to be assured.
6) Taxonomies can provide a common sense vocabulary (modeling primitives). Despite the number of publications, there is a lack in understanding: what innovation is; what innovation culture is; what ecosystem innovation is; and what a model of innovation is. 
7) Knowledge Representation - innovation depends of a combined use of different knowledge with different disciplinary ways/levels. 
8) He proposes Vertical and Horizontal Knowledge Integration. Vertical Knowledge Integration: deep specific domain knowledge; 
9) Horizontal Knowledge Integration: innovation are answers to opportunities perceived in the market and involved entire production chains/systems.
10) Knowledge Management: innovation means going from ideas to market. The focus is on the process
11) Knowledge Spiral: static ontology, intentional ontology, social ontology
12) Management models: Innovation is also management and requires models for that: closed or open. Static ontology, dynamic ontology and intentional ontology. 
13) Cooperation: this is essential for innovation
14) Semantic Web: innovation ecosystems deals with huge/infinite amount of information. 

Propostas vindas do Governo Federal (pesquisadores estão participando dos comitês criadores): 
- Lei do Bem
- Código da Inovação