Inicio
Archivo




Ciencia y Tecnología | Internet

Google lanzo herramienta para combatir a los trolls

El nuevo proyecto de inteligencia artificial de Google pretende ser una herramienta útil para luchar contra el "acoso online y la creciente toxicidad de las conversaciones en la red".


23-02-2017

Google lanzó hoy "Perspective", una herramienta de inteligencia artificial pensada para medios de comunicación que, a partir de los comentarios de las notas, aprende a detectar de forma automática los mensajes que considere "irrespetuosos" y "tóxicos" -los que llevan a las personas a abandonar las conversaciones- con el fin de evitar el acoso online.

Se trata de una tecnología "que utiliza el aprendizaje automático ('machine learning') para identificar los comentarios tóxicos", como se conoce a aquellos "que lleven a alguien a abandonar una conversación", explicó Jared Cohen, titular de Jigsaw, la startup de Google a cargo de la iniciativa.

La herramienta, que aún está "en su primera etapa de desarrollo", era probada por Wikipedia y los diarios The New York Times, The Guardian y The Economist, pero desde hoy está disponible de forma gratuita para cualquier medio que la solicite, aunque por el momento solo funciona en inglés.

Su objetivo principal es limitar la incidencia de los llamados trolls en las conversaciones online, en particular en aquellas que se generan en los espacios para comentarios que usan los sitios de noticias, tal como como explicó Cohen.

"Imagina que intentas tener una conversación con tus amigos sobre las noticias que leíste esta mañana pero, cada vez que dices algo, alguien te grita en la cara o te dice un insulto o te acusa de algo que no hiciste. Probablemente abandonarías la conversación.

Desafortunadamente esto pasa con demasiada frecuencia en el mundo online, ya que la gente trata de discutir ideas en las páginas web de noticias que les gustan, pero en lugar de eso terminar bombardeándose con comentarios tóxico", señaló.

En un posteo en el blog corporativo de Google, el directivo citó un estudio publicado en noviembre pasado por el instituto Data&Society para poner la problemática en números: el 72% de los usuarios de Internet en Estados Unidos alguna vez fue testigo de acosos en la web; casi la mitad (140 millones de personas) los sufrió alguna vez de forma directa; un tercio de los usuarios se autocensura en redes sociales por miedo a represalias.

Sin embargo, este problema "no impacta solo a los lectores" ya que los medios "quieren que se genere una buena conversación y discusión alrededor del contenido publicado pero intentar acabar con los trolls o contenido abusivo les quita mucho dinero, tiempo y trabajo. Como resultado, deciden en ocasiones cerrar los comentarios por completo".

Ese es el camino que en Estados Unidos siguieron numerosas publicaciones y diarios online, como USA Today, Popular Science, Recode o la la radio pública nacional (NPR, por sus siglas en inglés), entre muchos otros.

La idea con este sistema de inteligencia artificial es que los sitios de noticias no deban llegar a ese extremo y puedan mantener las secciones de comentarios, con la ayuda de la tecnología.

Perspective funciona analizando los mensajes y evaluándolos en base "al parecido que tienen con los comentarios que las personas han indicado como 'tóxicos' o que, probablemente, pueden hacer que alguien abandone una conversación", detalló Cohen.

"Para aprender a detectar un lenguaje potencialmente tóxico, Perspective examina decenas de miles de comentarios etiquetados por personas dedicadas a revisarlos", y cada vez que encuentra nuevos ejemplos de comentarios tóxicos o recibe correcciones por parte de los usuarios, "mejora su capacidad para evaluar los futuros comentarios", agregó.

Con esta información, ofrece a medios y plataformas de Internet la información detallada en un marcador que va de 0 a 100 en su grado de toxicidad, aunque son los propios medios los que deciden cómo usar la información que reciben.

"Por ejemplo, pueden elegir marcar comentarios para que sean revisados por sus propios moderadores y decidir si los incluyen en una conversación", permitir que "la persona que está escribiendo vea la toxicidad potencial de sus comentarios justo cuando los está escribiendo" e incluso "permitir a los lectores clasificar los comentarios según su toxicidad".

Por el momento, el sistema funciona en inglés, "pero a lo largo de los dos próximos años lanzaremos nuevos modelos que van a funcionar en otros idiomas", adelantó Cohen, y anunció que incorporará también "modelos capaces de identificar comentarios etiquetados como ataques personales o que no se ocupan del asunto que se debate".

Con más impacto en los últimos 30 días

1- Tragedia en Rojas: Encontraron el cuerpo sin vida de uno de los puesteros arrastrados por el temporal

2- Un avión abandonado, una antena Starlink y miles de dólares

3- Julia Riera después de Roland Garros: «Quiero romper todas las raquetas»

4- Ricardo Darín y Julio Chávez: Ironía, aplausos y el mito de una pelea que nunca fue

5- Finalizaron las obras en el Aeródromo de Pergamino y solo resta la habilitación de ANAC para su reapertura

6- Escándalo en la Carrera Maya: Descalifican a Enzo Fernández por negarse al control antidoping

7- Marcas confiables para conseguir un celular barato y duradero

8- Suelta de palomas en el Parque Municipal por los 100 años de la Sociedad Colombófila Pergamino

9- Messi vuelve a la Selección y Scaloni sorprende con caras nuevas

10- ANAC habilitó oficialmente la pista del Aeródromo de Pergamino



📢 7.144.975 lecturas de noticias!

Nro. 1.847.110 Pergaminovirtual.com - Propiedad intelectual 1998-2023 - Todos los derechos reservados

Edición N° 13062 (16-06-2025) - Propietario: Jorge Luis Calvigioni - Director: Jorge Luis Calvigioni - Domicilio Legal: Vergara Campos 1871, Pergamino,Buenos Aires, Argentina