Investigadores de la UNSL primeros en concurso para mejorar la calidad de información en Wikipedia

En el mes de septiembre de 2012 deberán presentar el software desarrollado en Roma.

Se presentaron 21 equipos, pero sólo tres lograron llegar a la segunda etapa del concurso. Uno se llevó el primer premio. El sistema ganador fue presentado por investigadores de San Luis, España y México que colaboran en el marco del proyecto Web Information Quality – Evaluation Initiative (WIQ-EI). En el mes de septiembre de 2012 deberán presentar el software desarrollado en Roma.

¿Quién alguna vez no buscó algo de historia, geografía o literatura en la web? ¿O quizás el significado de alguna palabra? ¿O la explicación de un suceso? ¿Quién alguna vez no recurrió a la información de internet o bien a datos provenientes de Wikipedia? Muchos de quienes estamos leyendo esta nota lo hemos hecho e incluso confiado en que lo que nos está diciendo “la enciclopedia” es lo correcto.

Lo cierto es que si bien Wikipedia es una enciclopedia en línea que es generada por los usuarios y todos podemos contribuir aportando nuestros saberes, existen profesionales de distintas áreas de las nuevas tecnologías de la información y la comunicación que buscan día a día mejorar la calidad de la información que ésta contiene.

Uno se pregunta cómo se hace para controlar todo ese conjunto de datos que circulan por la red y particularmente por Wikipedia. Según los expertos en el tema, el mayor problema radica en que al no tener la suficiente capacidad para controlar lo que los usuarios generan, se sube a Wikipedia material que no cumple con formatos establecidos y que alguno hasta llega a ser incompleto o incorrecto.

Frente a estas fallas surge la necesidad de generar sistemas que detecten estas falencias automáticamente, para que las personas que trabajan en el mantenimiento de Wikipedia tengan listados completos de errores y se concentren directamente sobre los mismos con el fin de resolverlos.

Investigadores del Departamento de Informática de la Facultad de Ciencias Físico Matemáticas y Naturales de la Universidad Nacional de San Luis, forman parte del proyecto europeo Web Information Quality-Evaluation Initiative (WIQ-EI) integrado por universidades europeas y latinoamericanas que han comenzado a trabajar en el desarrollo de algoritmos y métodos inteligentes para medir la calidad de la información en contenidos web semi-estructurados o totalmente desestructurados. Es un equipo que ya lleva un año y medio de trabajo.

Edgardo Ferretti y Marcelo Errecalde de San Luis, junto a Manuel Montes y Gómez del Departamento de Ciencias Computacionales del Instituto Nacional de Astrofísica, Óptica y Electrónica de México; Paolo Rosso del Departamento de Sistemas Informáticos y Computación de la Universidad Politécnica de Valencia, España, y Donato Hernández Fusilier y Rafael Guzmán Cabrera de la División de Ingeniería Campus Irapuato-Salamanca de la Universidad de Guanajuato, México, participaron de un concurso organizado por Bauhaus Universität Weimar (universidad alemana) y obtuvieron el primer premio, siendo su trabajo el ganador frente a una competencia que comenzó con 21 competidores y que sólo llegaron a la segunda etapa tres equipos quienes disputaron el galardón mayor.

El sistema desarrollado está categorizado como de aprendizaje no supervisado. Es un software que clasifica y detecta páginas que puedan tener una cierta falla de calidad (entendida como el no cumplimiento de estándares establecidos para poder contribuir con material en Wikipedia) de las que no tienen. El sistema predice automáticamente si una página tiene falla o no, lo que posibilita un mejor desempeño de los editores estables de Wikipedia lo que conlleva finalmente brindar información de mejor calidad a los usuarios.

Este sistema implementado es una propuesta que no está operativo actualmente en la web, que los
investigadores presentaron en el concurso “Quality Flaw Prediction in Wikipedia” (concurso internacional de calidad de información en Wikipedia) organizado en el contexto del Conference and Labs of the Evaluation Forum (CLEF), en el marco del laboratorio PAN – Uncovering Plagiarism, Authorship, and Social Software Misuse.

“Tenemos proyección a futuro, ese es nuestro objetivo”, comentaron los profesionales apuntando a que esperan que en el futuro este software pueda estar operativo como un bot (software automático que realiza alguna tarea de mantenimiento) de Wikipedia y logre etiquetar las fallas que detecte y a su vez determinar qué falla se ha encontrado para que luego el editor encargado puede corregirlas.

“Desde su creación en enero del 2001 hasta la actualidad, Wikipedia es motivo de continua investigación en diferentes disciplinas académicas. En particular, en el contexto de la calidad de información en Wikipedia la mayoría de la investigación realizada aborda la discriminación de featured articles, es decir aquellos artículos que respetan los estándares de calidad, de aquellos que no lo son”, comentaron.

Con todas las expectativas puestas en el mes de septiembre, fecha en que deberán viajar a Roma para presentar y defender el trabajo, el grupo multinacional continúa trabajando en el desarrollo de nuevas propuestas y mejoras de problemas que cotidianamente se presentan en el Red de redes.

Categorías: Noticias