http://www.tecmundo.com.br/wikipedia/91972-2015-4-minutos-confira-retrospec…
2015 em 4 minutos: confira a retrospectiva pelos olhos da Wikipédia [vídeo]
Por Paulo Felipe Manosso Vidal
<http://www.tecmundo.com.br/autor/179-paulo-felipe-manosso-vidal/>
Em Wikipédia <http://www.tecmundo.com.br/wikipedia/>
17 dez 2015 — 16h54
Vídeos de retrospectiva são bem comuns nesta época do ano. Diferentes redes
sociais já apresentam o resumo do ano de maneiras bem criativas, como o YouTube
no início do mês
<http://www.tecmundo.com.br/video/91573-retrospectiva-confira-video-oficial-…>.
No entanto, agora é a vez de a Wikipédia entrar na dança e divulgar um
vídeo com uma visão única dos acontecimentos de 2015. Confira no início
desta notícia.
Além de relembrar os principais acontecimentos do ano, a proposta da maior
enciclopédia online do mundo é mostrar como a história sofre constantes
“edições” ao longo do tempo, como a descoberta de água em Marte, a
imigração europeia, o casamento gay nos Estados Unidos e os recentes
atentados terroristas do grupo ISIS.
De acordo com uma postagem no blog oficial, o vídeo foi produzido por
Victor Grigas em colaboração com diversos editores da Wikipédia. O autor do
vídeo revela que se inspirou em uma cena do filme "O Quinto Elemento", na
qual a personagem de Milla Jovovich pesquisa a palavra "guerra" em uma
enciclopédia virtual.
http://www.tecmundo.com.br/inteligencia-artificial/91187-wikipedia-utilizar…
Wikipédia utilizará inteligência artificial para detectar edições ruins
Por Elias Nascimento
<http://www.tecmundo.com.br/autor/425-elias-nascimento/>
Em Inteligência artificial
<http://www.tecmundo.com.br/inteligencia-artificial/>
02 dez 2015 — 11h33
A Wikipédia agora conta com um novo serviço de inteligência artificial que
tentará evitar as bagunças feitas por usuários “engraçadinhos”. O sistema,
batizado de Serviço de Avaliação de Revisão Objetiva (ORES, na sigla em
inglês), irá esquadrinhar novas revisões nos textos presentes na
enciclopédia e apontará quaisquer mudanças que pareçam ser spam ou alguma
forma de “trollada”.
A desenvolvedora da IA foi a Wikimedia Foundation, e de acordo com ela o
serviço funcionará como uma espécie de óculos de raios-X, focando e
acusando tudo o que parecer suspeito em uma revisão. Então aquele texto é
separado e passa pelas mãos de um editor humano, que aprovará ou negará a
alteração. Caso uma inserção seja rejeitada, seu autor será notificado,
enquanto antigamente um texto recusado era simplesmente apagado sem maiores
explicações.
A equipe que treinou o ORES o fez de forma que o programa pudesse
diferenciar entre erros humanos não intencionais e o que é chamado de
“edições prejudiciais”, usando como exemplo os próprios artigos já
corrigidos pelos editores da Wikipédia. Por conta disso, o sistema é capaz
de dar notas às alterações, dividindo-as entre as que prejudicam o texto e
as que de fato o melhoram.
Exemplos de alterações detectadas pelo sistema ORES - Imagem: Wikimedia Blog
Ao fazer o anúncio da ferramenta, a Wikimedia Foundation deixou claro que
essa não é a primeira inteligência artificial projetada para ajudar
editores humanos a monitorar o conteúdo das páginas do site. No entanto, a
diferença entre aquelas e o sistema ORES é que antes elas não eram capazes
de diferenciar entre uma edição prejudicial e um erro humano legítimo,
justamente o que torna o novo serviço muito mais eficiente.