Análise de Concordância – Métrica de Kappa

Para quem utiliza o WEKA no momento em que vemos a tela relacionada ao desempenho dos classificadores já se deparou com uma métrica bem interessante, e que quase ninguém conhece que é a Kappa Statistics (Estatística de Kappa).

Segundo a definição da Faculdade de Medicina do Porto:

A Estatística K é uma medida de concordância usada em escalas nominais que nos fornece uma ideia do quanto as observações se afastam daquelas esperadas, fruto do acaso, indicando-nos assim o quão legítimas as interpretações são.

Em linhas gerais a Estatística de Kappa é uma métrica que avalia o nível de concordância de uma tarefa classificação, na qual através de diferentes técnicas faz-se uma métrica na qual irá considerar somente as concordâncias entre os classificadores, o que indica que aqueles dados classificados tem uma dada coesão.

Em uma aula no Aprenda Virtual do Prof. Grimaldo do BI Vatapá, uma das mais importantes lições em relação as tarefas de classificação é que tão importante quando o número de instâncias corretamente classificadas é a estatística de Kappa a qual indica o quão concordante (e também coeso) aquele dado está classificado dentro da tarefa de classificação.

Uma escala é fornecida á título de parâmetro para indicar se os dados estão concordantes dentro das tarefas de classificação.

Em linhas gerais a Estatística de Kappa é uma métrica que avalia o nível de concordância de uma tarefa classificação, na qual através de diferentes técnicas faz-se uma métrica na qual irá considerar somente as concordâncias entre os classificadores, o que indica que aqueles dados classificados tem uma dada coesão. Fontes:

Link - http://users.med.up.pt/joakim/intromed/estatisticakappa.htm

Link - http://www.lee.dante.br/pesquisa/kappa/index.html