{"id":1374,"date":"2020-09-22T23:58:51","date_gmt":"2020-09-22T23:58:51","guid":{"rendered":"https:\/\/peninsula360press.com\/?p=1374"},"modified":"2021-02-05T09:55:35","modified_gmt":"2021-02-05T17:55:35","slug":"algoritmo-de-twitter-favorece-a-personas-blancas","status":"publish","type":"post","link":"https:\/\/peninsula360press.com\/es_mx\/algoritmo-de-twitter-favorece-a-personas-blancas\/","title":{"rendered":"Algoritmo de Twitter favorece a personas blancas"},"content":{"rendered":"\n<p>El pasado fin de semana un sistema de algoritmos demostr\u00f3 que, al momento recortes y previsualizarlos, sospechosamente, favorec\u00eda a los hombres blancos por encima de los otros.<\/p>\n\n\n\n<h5 class=\"wp-block-heading\">Rober D\u00edaz. Pen\u00ednsula 360 Press.<\/h5>\n\n\n\n<p>Un gran esc\u00e1ndalo ocurri\u00f3 este fin de semana: usuarios de la red social Twitter, fundada en 2006 por Jack&nbsp;Dorsey,&nbsp;Noah&nbsp;Glass,&nbsp;Biz&nbsp;Stone y Eva&nbsp;Willians, con sede en San Francisco, debatieron un algoritmo que permite dar vistas previas para que el usuario tenga una imagen del&nbsp;tweet, si se trata de una nota o de un blog o p\u00e1gina.<\/p>\n\n\n\n<p>Todo comenz\u00f3 por las im\u00e1genes de previsualizaci\u00f3n de otra plataforma que, tras la pandemia por la COVID-19, tom\u00f3 una importancia capital en el mundo Zoom, ya que uno de los usuarios,\u00a0Colin\u00a0Madland, se dio cuenta de que al compartir la imagen donde estaba con su jefe de piel negra, solo sal\u00eda \u00e9l de piel m\u00e1s blanca.<\/p>\n\n\n\n<figure class=\"wp-block-embed-twitter wp-block-embed is-type-rich is-provider-twitter\"><div class=\"wp-block-embed__wrapper\">\n<blockquote class=\"twitter-tweet\" data-width=\"550\" data-dnt=\"true\"><p lang=\"en\" dir=\"ltr\">Flipped the image&#8230;.<a href=\"https:\/\/twitter.com\/Twitter?ref_src=twsrc%5Etfw\" target=\"_blank\" rel=\"noopener\">@Twitter<\/a> is trash. <a href=\"https:\/\/t.co\/GxlNIEryFD\">pic.twitter.com\/GxlNIEryFD<\/a><\/p>&mdash; Colin, scholar in residence since Mar 17\/20 (@colinmadland) <a href=\"https:\/\/twitter.com\/colinmadland\/status\/1307130447671984129?ref_src=twsrc%5Etfw\" target=\"_blank\" rel=\"noopener\">September 19, 2020<\/a><\/blockquote><script async src=\"https:\/\/platform.twitter.com\/widgets.js\" charset=\"utf-8\"><\/script>\n<\/div><\/figure>\n\n\n\n<p>Colin, hizo varios intentos en Twitter para comprobar que era aleatorio y no realmente una programaci\u00f3n prefigurada. Cambi\u00f3 la imagen y subi\u00f3 variaciones de la misma para comprobar que en todos los casos la previsualizaci\u00f3n eliminaba la figura de su jefe.<\/p>\n\n\n\n<p>Se siguieron haciendo pruebas. El investigador&nbsp;Vinay&nbsp;Prabuh&nbsp;hizo una prueba con 92 pares de im\u00e1genes y descubri\u00f3 que 52 de ellas se seleccionaba la cara negra. Es decir, que dicho problema no es tal. A pesar de ello los debates se multiplicaron por la Red Social y distintos desarrolladores de la compa\u00f1\u00eda salieron a decir que Twitter ya hab\u00eda pasado por ese dilema, ya que antiguamente se usaba el reconocimiento facial y la Inteligencia Artificial para obtener las im\u00e1genes de las previsualizaciones.<\/p>\n\n\n\n<p>Desde el 2018 dejaron de hacerlo por las fallas en la IA y los sesgos que pod\u00eda generar, intencionadamente o no. El algoritmo que usa ahora Twitter para crear sus previsualizaciones se entrena con datos procedentes de sistemas de seguimiento ocular, y responde a las zonas con mayor contraste, caras, animales o texto, pero no busca estos par\u00e1metros de forma activa en s\u00ed mismos.<\/p>\n","protected":false},"excerpt":{"rendered":"<p>Este sistema de algoritmos demostr\u00f3, el pasado fin de semana, que, al momento recortes y previsualizarlos, sospechosamente, favorec\u00eda a los hombres blancos por encima de los otros.<\/p>\n","protected":false},"author":4,"featured_media":1376,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[4,14],"tags":[273],"class_list":{"0":"post-1374","1":"post","2":"type-post","3":"status-publish","4":"format-standard","5":"has-post-thumbnail","7":"category-technology","8":"category-cover","9":"tag-ccj"},"_links":{"self":[{"href":"https:\/\/peninsula360press.com\/es_mx\/wp-json\/wp\/v2\/posts\/1374","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/peninsula360press.com\/es_mx\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/peninsula360press.com\/es_mx\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/peninsula360press.com\/es_mx\/wp-json\/wp\/v2\/users\/4"}],"replies":[{"embeddable":true,"href":"https:\/\/peninsula360press.com\/es_mx\/wp-json\/wp\/v2\/comments?post=1374"}],"version-history":[{"count":4,"href":"https:\/\/peninsula360press.com\/es_mx\/wp-json\/wp\/v2\/posts\/1374\/revisions"}],"predecessor-version":[{"id":1390,"href":"https:\/\/peninsula360press.com\/es_mx\/wp-json\/wp\/v2\/posts\/1374\/revisions\/1390"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/peninsula360press.com\/es_mx\/wp-json\/wp\/v2\/media\/1376"}],"wp:attachment":[{"href":"https:\/\/peninsula360press.com\/es_mx\/wp-json\/wp\/v2\/media?parent=1374"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/peninsula360press.com\/es_mx\/wp-json\/wp\/v2\/categories?post=1374"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/peninsula360press.com\/es_mx\/wp-json\/wp\/v2\/tags?post=1374"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}