Connect with us

Cultura

“CALENTAMIENTO SOCIAL”: CÓMO FUE QUE LAS REDES CREARON UN PELIGRO SIMILAR AL DEL CLIMA EN LAS COMUNIDADES HUMANAS

Published

on

La intención era crear un mundo más comunicado. El resultado fue socavar las democracias, manipular los comicios, provocar genocidios, alentar la polarización, gestar terroristas, fomentar el acoso. El experto en tecnología Charles Arthur analizó el fenómeno en su nuevo libro, “Social Warming”

En abril de 1986 el complejo de Chernóbil consistía en cuatro reactores nucleares RBMK-1000, con otros dos en construcción, y un lago artificial con el agua para enfriarlos. El accidente del día 26 sucedió en el reactor Chernóbil 4: al menos el 5% del núcleo radiactivo fue liberado en el ambiente, una contaminación descontrolada hasta el 4 de mayo, que afectó a varias zonas de Europa; murieron todos los trabajadores y 28 de los 134 bomberos y demás personal de emergencia por las consecuencias de la radiación; se hizo una zona de contención (primero de 10 kilómetros, luego de 30) y se evacuó a más de 300.000 personas; hubo un aumento en el cáncer de tiroides infantil (5.000 casos, con 15 muertes) y las víctimas fatales vinculadas al desastre van de 4.000 a 16.000 según las estimaciones.

Si Facebook hubiera sido propietaria del complejo, el comunicado oficial podría haber dicho: “Tres de los cuatro reactores nucleares de Chernóbil no explotaron”.

Así lo comparó Charles Arthur, periodista con 30 años de especialización en tecnología, en su nuevo libro, Social Warming: The Dangerous and Polarising Effects of Social Media (Calentamiento social: los efectos peligrosos y polarizadores de las redes sociales). “Es cierto, pero ignora lo que es verdaderamente importante”.

Aludía directamente a una cita de Nick Clegg, encargado de relaciones públicas de la compañía, quien a mediados de 2020, cuando unas 1.000 empresas —y, crucialmente, algunas grandes: Pfizer, Ford, Adidas, Best Buy, Starbucks, Dunkin Donuts, LEGO, Target y Clorox— se sumaron al boicot publicitario #StopHateForProfit para condenar la falta de políticas eficaces de moderación en la plataforma.

Socavar las democracias, manipular los comicios, provocar genocidios, alentar la polarización, gestar terroristas, fomentar el acoso: el calentamiento social del que habla Charles Arthur.Socavar las democracias, manipular los comicios, provocar genocidios, alentar la polarización, gestar terroristas, fomentar el acoso: el calentamiento social del que habla Charles Arthur.

A dos años de la crisis humanitaria de los rohinyá en Myanmar, acelerada y masificada por publicaciones violentas en la red, Facebook acababa de negarse a regular un comentario del entonces presidente de los Estados Unidos, Donald Trump, sobre los escasos saqueos que se produjeron en las gigantescas protestas contra el asesinato de un afroamericano a manos de la policía: “Cuando comienzan los saqueos, comienzan los tiros”.

Clegg había dicho que “la gran mayoría de los miles de millones de conversaciones [en Facebook] son positivas”. Tenía razón, dijo Arthur, pero el problema real era el resto de las conversaciones, el Chernóbil 4 de las conversaciones.

Las que sería muy caro (para el modelo de negocios multimillonario que esperan perpetuar las grandes tecnológicas) controlar. Porque es más barato un sistema de algoritmos que asocia a la gente según sus intereses, ignorando sus motivaciones, que tener un control adecuado de todas las conexiones posibles que existen en una red.

Neonazis y gatitos

Al comienzo del libro, el investigador británico recordó el caso de Steven Carrillo, un hombre de 32 años que conoció en Facebook a Robert Alvin Justus. Se llevaron bien, lo que confirma la eficacia de una red social para unir a personas con los mismos intereses.

El problema es que esas afinidades eran las ideas extremistas de la derecha armada sobre la necesidad de iniciar una guerra civil en los Estados Unidos; entusiasmados el uno con el otro, Carrillo y Justus decidieron salir a matar a un policía. Le tocó a David Patrick Underwood, un oficial federal destinado al área de las manifestaciones de #BlackLivesMatter en Oakland, California.

Charles Arthur es un periodista británico especializado en tecnología, autor también de Cyber Wars y Digital Wars.Charles Arthur es un periodista británico especializado en tecnología, autor también de Cyber Wars y Digital Wars.

“No son aberraciones”, destacó Arthur. “Las redes sociales tienen estos resultados cuando se usan tal como se las concibió, tal como se las diseñó. Al fin y al cabo, se supone que uno se tiene que conectar con personas afines”.

Si el interés de alguien son los gatitos, su pantalla se llenará de publicaciones de amigos sobre gatitos, de amigos de los amigos que también aprecien a los gatitos; de sugerencias de amigos con gatitos, de sugerencias de páginas sobre gatitos y de sugerencias de grupos dedicados a los gatitos y de publicidad sobre productos para gatitos.

Y si el interés de alguien son contenidos sexistas, racistas o cualquier otra forma de violencia, lo mismo. El algoritmo, que es un conjunto de instrucciones, no distingue entre gatitos o neonazis, entre crochet y rifles de asalto.

Lo que importa al algoritmo es cumplir las tres reglas de las redes sociales: “La primera: consigue tantos usuarios como puedas. La segunda: no dejar escapar la atención del usuario. La tercera, que se cumple en mayor o menor medida: monetiza a esos usuarios atentos todo lo que puedas sin perder su atención”.

O, como declaró originalmente el fundador y CEO de Facebook, Mark Zuckeberg, “dar a la gente el poder de compartir y hacer el mundo más abierto y conectado”. Facilitar a los creyentes en la supremacía blanca el poder de construir comunidad. Igual que a los amantes de las suculentas.

Algoritmos que asocia a la gente según sus intereses, ignorando sus motivaciones: tanto a los que comparten la pasión por la masa madre como los que quieren matar gente que piensa distinto. (REUTERS)Algoritmos que asocia a la gente según sus intereses, ignorando sus motivaciones: tanto a los que comparten la pasión por la masa madre como los que quieren matar gente que piensa distinto. (REUTERS)

Los efectos secundarios que eso cause no serían problemas de las redes y mucho menos de sus empresas: “La gente creó los aviones primero y luego se ocupó de la seguridad de los vuelos”, dijo Zuckerberg en 2016, algo que molestó a los ejecutivos de la aviación comercial obligados a invertir en seguridad. “Si la gente se centrara en la seguridad primero, nadie habría construido un avión”.

Como la crisis del clima

Esa es la clave del libro de Arthur: las consecuencias indeseadas de las redes sociales como YouTube (2.000 millones de usuarios) y Twitter (190 millones), aunque se concentra en la tríada de Facebook-Instagram-WhatsApp, que suma 3.000 millones de usuarios, más que la cantidad total de gente completamente vacunada contra el COVID-19 en en mundo desfigurado por la pandemia, 2.650 millones.

Social warming plantea una comparación con el calentamiento global:

Si en la década de 1890 les hubieras dicho a Gottlieb Daimler o a Rudolf Diesel que sus diseños de motores alimentados a combustible serían, en poco más de un siglo, responsables de la subida del nivel del mar, huracanes catastróficos y la migración forzosa de millones de personas, les habría costado creerte. Su intención era honesta y sencilla: querían construir máquinas eficientes que fueran utilizadas por la gente para mejorar sus vidas.

YouTube tiene 2.000 millones de usuarios; Twitter, 190 millones; sumadas, Facebook, Instagram y WhatsApp superan los 3.000 millones. (Shutterstock)YouTube tiene 2.000 millones de usuarios; Twitter, 190 millones; sumadas, Facebook, Instagram y WhatsApp superan los 3.000 millones. (Shutterstock)

El motor de combustión moderno sólo podía ser un progreso glorioso, dada la horrible contaminación y el enorme gasto de los motores de vapor.

“Nadie quiso que sucediera esto. Todo debía mejorar, no empeorar”, abre el libro, y se puede aplicar tanto a la sociedad industrial como a la expansión de las redes sociales.

“Facebook ha estado implicada en un genocidio, Twitter se convirtió en el campo de batalla de una campaña misógina que llevó a graves amenazas y ataques en el mundo real y YouTube ha sido acusada de facilitar la radicalización primero de los yihadistas musulmanes y luego de los extremistas blancos de derecha, que procedieron a matar”, recordó Arthur.

Aunque no ignora las comparaciones de las redes con el tabaquismo, tanto por su aparente control de la ansiedad como por sus graves consecuencias sociales, al autor de Cyber Wars y Digital Wars le pareció mejor la asociación con el cambio climático porque “el efecto acumulativo es mucho más parecido al calentamiento global: omnipresente, sutil, implacable y, sobre todo, causado por nuestras propias acciones e inclinaciones”.

El calentamiento social sucede “cuando las interacciones entre personas que solían estar geográficamente separadas y rara vez expuestas a las perspectivas de las otras se unen con más frecuencia, y se mantienen alrededor de temas que las engancharán y crearán experiencias adictivas”, definió. “Sólo al mirar atrás el cambio se vuelve evidente. Sin embargo, los efectos suceden todo el tiempo. La esfera política, la democracia, los medios, la gente en la calle: afecta a todos”.

“La gente creó los aviones primero y luego se ocupó de la seguridad de los vuelos”, dijo Zuckerberg en 2016.“La gente creó los aviones primero y luego se ocupó de la seguridad de los vuelos”, dijo Zuckerberg en 2016.

Aunque todos los eslóganes de las redes tienen que ver con la comunidad, parte central del negocio es alejar al usuario de la diversidad que encontraría en el mundo real para acercarlo, de manera cada vez más especializada, a aquello que se sabe que le interesa para mantenerlo más tiempo en la plataforma y monetizar esa permanencia. El mundo virtual está hecho a la medida de los intereses propios. El antagonismo con todo lo demás es la consecuencia; la polarización, el paso natural.

“Las sociedades funcionan mejor cuando tienen objetivos en común que unen a las personas”, recordó Arthur. Pero las redes se construyen alrededor de la división: “La dinámica de la autoselección de grupos los lleva cada vez más lejos del espacio común con otros grupos cuyas perspectivas difieren incluso muy poco. En lugar de ofrecer un medio para la unión de las sociedades, en realidad las plataformas funcionan en la dirección opuesta al brindar maneras de descubrir las diferencias”.

Eso, concluyó, es el calentamiento social: “El efecto de fondo que gradualmente, sutilmente, insistentemente hace que la gente se concentre en sus diferencias en lugar de en aquello que tiene en común”.

Apoye el comercio de su barrio: compre en Al-Qaeda

Lo gradual del proceso es relevante: “Significa que no advertimos el punto a partir del cual las cosas cambian para peor”. Pero eso sucede, inevitablemente como en el clima, en este caso por el efecto de red: “Llega un punto de inflexión cuando una plataforma crece tanto en escala que se vuelve incontrolable. Aunque la cantidad de usuarios aumenta aritméticamente, la cantidad de conexiones sociales potenciales aumenta geométricamente”.

Dianne Feinstein y Pat Leahy, dos de los senadores que participaron en las audiencias sobre la injerencia rusa en las elecciones presidenciales estadounidenses de 2016. (REUTERS/Jonathan Ernst)Dianne Feinstein y Pat Leahy, dos de los senadores que participaron en las audiencias sobre la injerencia rusa en las elecciones presidenciales estadounidenses de 2016. (REUTERS/Jonathan Ernst)

Ilustró: las conexiones posibles crecen al cuadrado de la cantidad de usuarios: es decir que, para una red de 1.000 usuarios, agregar otros 1.000 haría que la red fuera el doble de grande pero el problema de moderación, cuatro veces más grande.

Un ejemplo de Social Warming es la competencia interna de dos sistemas de inteligencia artificial (aprendizaje de máquinas, o ML) en Facebook.

El primer sistema ML quería crear grupos, para aumentar la permanencia e interacción de usuarios a los que les interesara un tema común. Resultó tan bueno que los corredores estaban felices de intercambiar tips sobre calzado y recorridos, qué decir de los amantes del pan de masa madre; pero también los neonazis, los creyentes en la supremacía blanca y los fanáticos islámicos.

“El software no lo sabía”, explicó Arthur. “Los algoritmos no podían distinguir entre un grupo que quería reunirse para jugar a los bolos y un grupo que quería reunirse para ir a golpear la gente. Utilizando una combinación de grupos públicos, cerrados (que se pueden descubrir mediante búsqueda, pero con entrada controlada por un administrador) y secretos (sólo por invitación), los extremistas pudieron encontrar un hogar cómodo en Facebook”.

Ahí entró en acción el segundo sistema ML, para moderación. Ambos trabajaban a la vez: uno, para tratar de unir gente con ideas afines, otro para eliminar los grupos radicalizados.

El calentamiento social es "el efecto de fondo que gradualmente, sutilmente, insistentemente hace que la gente se concentre en sus diferencias en lugar de en aquello que tiene en común”, define el libro. (Chesnot/Getty Images Europe)El calentamiento social es “el efecto de fondo que gradualmente, sutilmente, insistentemente hace que la gente se concentre en sus diferencias en lugar de en aquello que tiene en común”, define el libro. (Chesnot/Getty Images Europe)

En el combate, no sólo la plataforma no logró eliminar a los extremistas sino que comenzó “a autogenerar contenido terrorista y a ayudar a quien profesara aprobación por ese contenido a que encontrara otros y se conectara”, citó Social Warming una investigación de 2018. “En el combate entre los sistemas ML, la generación automática de contenidos, sumada al trabajo entusiasta de extremistas y terroristas, le llevaba la delantera al sistema de eliminación”.

El ML para crear grupos era tan bueno que “si faltaba interacción, generaba páginas de Comercios Locales”, continuó Arthur. “Para una persona que describió su experiencia laboral como ‘ex francotirador’ del grupo terrorista somalí Al Shabaab, Facebook generó automáticamente una página de Comercios Locales con todo y el logo de Isis, tomado de Wikipedia”. Creó otra “para ‘Al-Qaida en la Península Arábiga’, y combinó servicialmente las versiones en inglés y en árabe”.

El sistema ML autogeneraba luego videos de “Celebración” y “Recuerdos” con los grupos, para que pudieran compartir con sus amigos.

“Facebook fue precursor en el abandono de cualquier aporte humano para clasificar el interés probable de un contenido en particular. Esto, a su vez, abrió la puerta para que todos los efectos de la amplificación algorítmica tomaran el control”, explicó el libro el sustrato de numerosos casos como los del ejemplo. En 2016, Instagram y Twitter también se sumaron al problema de la amplificación algorítmica.

Las consecuencias del retweet

En el caso de la red de Jack Dorsey, uno de los sistemas en pie aporta a prevalencia de la indignación tuitera, tan característica de la plataforma. Aun en el caso de personas que no siguen a mucha gente o tienen pocos seguidores, impulsa el enganche llenando su pantalla de tuits que han provocado muchas respuestas, según verificó una prueba de Andi McClure a partir de un mensaje con contenido neutro.

Social Warming describió un estudio sobre por qué los usuarios de Twitter tienden tanto a la indignación y el antagonismo. (REUTERS/Stephen Lam)Social Warming describió un estudio sobre por qué los usuarios de Twitter tienden tanto a la indignación y el antagonismo. (REUTERS/Stephen Lam)

“El algoritmo trabajaba, desesperadamente tratando de mejorar la participación”, explicó el texto. En el esfuerzo por evitar que el usuario no se quede en la red y los anunciantes desaparezcan, “llenaba sus feeds con tuits de fuera de su red”, tuits interesantes, tuits polémicos, tuits que provocaban interacciones de otros usuarios. Elegidos a partir de los intereses pasados de la cuenta, probablemente recibirían interacción de estos rezagados.

Pero el sistema también funciona para cuentas exitosas. “Twitter tiene un algoritmo diseñado de manera tal que los tuits con muchas respuestas reciben aun más respuestas”, porque su exposición se multiplica entre los usuarios de manera automática.

McClure halló un umbral: cuando un tuit recibió unas 100 respuestas ”entra en acción algún algoritmo que dice ‘¡Hay que mostrar esto a más gente!’ Y se lo muestra a más gente”. El tuit de la investigación era tabula rasa, “pero imagínate”, le dijo a Arthur, “si hubiera dicho algo político o expresado una opinión sobre una boy band”. Así, encontró, se desataban esas tormentas de indignación.

Un elemento que las facilitaba es el retuit, herramienta creada en 2009 por Chris Wetherell. Si bien mucha gente usaba atajos para citar a otros, el nuevo recurso permitió compartir contenido con un click, y esa velocidad ayudó a crear las “declaraciones-tijeras”, como llamó el psiquiatra Scott Alexander a aquellas que dividen al público en dos grupos con una antipatía mutua. Además, enganchan a las personas en argumentos interminables, porque esperan tener razón o resolverlos. Las redes ganan en engagement.

El primer gran caso fue Gamergate, una campaña de ciberacoso que comenzó en agosto de 2014 en Reddit, 4chan y 8chan, en la que se atacó a mujeres del campo de los videojuegos, entre ellas las desarrolladoras Zoë Quinn y Brianna Wu y la feminista Anita Sarkeesian.

El presidente ejecutivo de Twitter, Jack Dorsey, durante una audiencia en el Congreso junto a otros CEO de grandes firmas tecnológicas y de redes sociales, en Washington, EEUU, Marzo 25, 2021. Comisión de Energía y Comercio de la Cámara de Representantes/Distribuida vía ReutersEl presidente ejecutivo de Twitter, Jack Dorsey, durante una audiencia en el Congreso junto a otros CEO de grandes firmas tecnológicas y de redes sociales, en Washington, EEUU, Marzo 25, 2021. Comisión de Energía y Comercio de la Cámara de Representantes/Distribuida vía Reuters

“Gamergate se convirtió en una batalla en la que uno podía creer solo una de dos cosas”, recordó Arthur, y detalló ambas aunque el punto es, en realidad, la polarización: o una o la otra, y a muerte. En un análisis posterior, Andy Baio desmenuzó tres días de la pelea: “Hace ocho años que uso Twitter y nunca vi una conducta así”, comentó: de 316.000 tuits estudiados, el 69% eran retuits.

Wetherell —que dejó Twitter— sintió que la herramienta era en realidad un arma para la que no había defensa. Poco cambió para él cuando en abril de 2015 la plataforma agregó una nueva opción, retuitear con cita, o QT: para él, “cada vez que compartimos sin contexto nos arriesgamos a que una idea huérfana caiga en manos de una familia malvada”.

Para Arthur, en cambio, el QT marcó una diferencia, y una negativa: si antes el retuit implicaba apoyo, ahora se podía citar con un comentario negativo arriba, y de pronto ese uso se expandió como un incendio. “En la práctica se convirtió en una herramienta para ridiculizar e inducir el efecto de ataque colectivo sobre la persona citada”, explicó.

YouTube en la espiral descontrolada

En 2016 la socióloga Zeynep Tufekci buscaba en YouTube citas de Trump para un artículo académico. Para el algoritmo, era una persona interesada en Trump. Y como sabía qué videos miraban las personas que miraban videos el entonces candidato presidencial, le ofreció sus recomendaciones, que comenzaban una detrás de la otra gracias a la función autoplay.

Muchos grupos terroristas como Al-Qaeda se volcaron a YouTube como herramienta de radicalización y reclutamiento.Muchos grupos terroristas como Al-Qaeda se volcaron a YouTube como herramienta de radicalización y reclutamiento.

“Tufekci vio con asombro cómo las recomendaciones pasaban a berrinches de creyentes en la supremacía blanca y luego a la negación del Holocausto”, describió Arthur.

El fenómeno había comenzado en agosto de 2012: Eric Myerson, encargado de la comunicación a los creadores de contenido, anunció que el ranking de la plataforma daría importancia a los videos según el tiempo que la gente los mirase. Aquellos videos que retuvieran a los usuarios hasta el final serían promovidos, aquellos que se abandonaran a los pocos minutos no.

Gracias al cambio, implementado por un sistema ML de Google, en 2016 los usuarios de YouTube miraban más de 1.000 millones de horas diarias, 10 veces más que cuatro años antes.

“Según la lógica de recomendación del sistema, los videos que interesaban a la gente que pasaba mucho tiempo en el sitio debían ser los videos que también atraerían a todos los visitantes casuales”, analizó Social Warming. “Lo que los ingenieros no habían tomado en cuenta es qué clase de personas mira muchos videos hasta el final”.

Así, lo que en la vida real sería una persona obsesiva o adicta, para el algoritmo era un usuario hiperenganchado, es decir, la persona ideal.

Había, además, un extraño efecto de distorsión: alguien podía empezar por una charla TED y llegar a una teoría conspirativa sobre los ataques del 11 de septiembre de 2001. Al problema original, “quejas sobre jóvenes radicalizados por predicadores del extremismo islámico”, se le sumó que cualquier contenido derivaba a perspectivas extremas. Alguien buscaba una noticia y terminaba con una recomendación de videos racistas; alguien buscaba un tutorial para empezar a hacer ejercicio y acababa con una recomendación de ultramaratones.

Por un cambio en los criterios de las recomendaciones, YouTube empezó a mostrar contenido progresivamente más extremo. (REUTERS/Dado Ruvic)Por un cambio en los criterios de las recomendaciones, YouTube empezó a mostrar contenido progresivamente más extremo. (REUTERS/Dado Ruvic)

“Parece que nunca eres lo suficientemente hardcore para el algoritmo de recomendación de YouTube”, escribió Tufekci en el artículo “El gran radicalizador”.

Guillaume Chaslot, quien había dejado Google tras la aplicación del sistema ML que permitió el crecimiento de YouTube, hizo un estudio sobre los efectos del algoritmo. “Si buscabas ‘¿Es real el calentamiento global?’, un 25% de los resultados de Google y un 15% de los de YouTube decían erróneamente que era un engaño. Pero en las recomendaciones de YouTube la cifra para un usuario registrado era más cercana al 70%”, contó. La diferencia era obvia: “Las recomendaciones intentan que te quedes mirando, no necesariamente responder tu pregunta”.

La lógica del sistema —citó el libro a Evan Williams, creador de Blogger— es que si una persona mira un accidente de autos en su camino, querrá ver más, y le llenará el camino de accidentes y tratará de provocarlos. En cambio, un ser humano, si bien no puede resistir mirar, probablemente cambiará de ruta si advierte que en esa que usa constantemente hay accidentes.

Regular contra el calentamiento social

El libro dedicó un capítulo al genocidio de los rohinyá en Myanmar, no sólo porque es “el peor escenario” —como tituló Arthur la sección— sino porque muestra lo que pasa cuando a una población digitalmente iletrada se la expone aceleradamente a las redes. Eso importa porque si se achica la brecha tecnológica será precisamente sobre grupos humanos similares en eso.

El papel de Facebook en la crisis de los rohinyá mereció un capítulo entero del libro de Charles Arthur. (REUTERS/Mohammad Ponir Hossain)El papel de Facebook en la crisis de los rohinyá mereció un capítulo entero del libro de Charles Arthur. (REUTERS/Mohammad Ponir Hossain)

Cuando una tarjeta SIM pasó de salir USD 2.000 a costar USD 2 en solo dos años, la compra de teléfonos móviles trepó al cielo (en 2016 alcanzó al 80% de los habitantes) y la penetración de Facebook se hizo universal, ya que la empresa negoció con los prestadores de telefonía que su red no consumiría datos y los puntos de venta entregaban los teléfonos con cuentas ya creadas, ya que casi nadie tenía correo electrónico. En la vida real esto significó que la gente no entendía la diferencia entre Facebook e internet.

Si algo salía en Facebook era no sólo noticia, porque nadie accedía a medios digitales, sino verdad, porque el país salía de años de prensa controlada. El “me gusta” se usaba como un reconocimiento de haber leído, no se entendía como manifestación de agrado, pero al llegar a 4.000 likes el algoritmo multiplicaba la exposición de mensajes como “los musulmanes planean volar un templo budista”.

De los moderadores humanos, sólo uno conocía efectivamente el idioma birmano, pero trabajaba —a horas de diferencia, en Dublín, donde está la oficina internacional de Facebook— en una máquina que no decodificaba los símbolos del idioma así que no le podía hacer alertas automáticas. Reuters probó el sistema de traducción en 2017: lo que en birmano decía “maten a todos los kalar [un insulto para llamar a los rohinyá] que vean en Myanmar, no debe quedar uno”, en inglés era “No debería tener un arcoiris en Myanmar”.

El resto es historia: 25.000 muertos en sucesivos ataques —los más graves comenzaron en 2018— y 725.000 desplazados, hasta la fecha.

Social Warming analiza los efectos graves de las plataformas sociales en el voto del Brexit en el Reino Unido y las elecciones presidenciales en los Estados Unidos en 2016, con detalles sobre los intereses económicos por los cuales la redes sociales pueden cobrar dinero para manipular el voto en distritos claves y albergar operaciones de inteligencia como la injerencia rusa en el ascenso de Trump.

Los sistemas de inteligencia artificial (aprendizaje de máquinas, o ML) de Facebook resultaron tan buenos para crear grupos que crearon un ámbito acogedor para los extremistas.Los sistemas de inteligencia artificial (aprendizaje de máquinas, o ML) de Facebook resultaron tan buenos para crear grupos que crearon un ámbito acogedor para los extremistas.

Con gran habilidad, Arthur echa abajo las pretensiones de defensa del libre discurso de las grandes tecnológicas en otro capítulo, sobre la pandemia, donde documenta cómo intervinieron contra la desinformación, a diferencia de lo que hicieron con las democracias en numerosos países para recoger miles de millones en publicidad electoral. Cuando hay consecuencias legales —argumentó— los CEOs se avienen a cumplir: Alemania multó el discurso violento en 2017 y hoy uno de cada seis moderadores de Facebook trabaja en ese país.

El libro concluye con un llamado a la regulación para que, en primer lugar, se limite el uso malicioso haciendo que compartir el contenido sea menos fácil que un click, y sobre todo se considere una condición básica: “Para que un sistema —cualquier sistema— sea viable tiene que poder afrontar la complejidad de su entorno. Y si no puede hacerlo, es inviable”, citó una derivación de una ley cibernética.

Desde su perspectiva, Facebook y Google no son viables. Su propuesta consiste en dividirlas en redes con un máximo de tamaño. No es muy distinto de lo que sucede con los medios de comunicación: hay un límite a la cantidad que se puede concentrar.

“¿Qué pasaría si Facebook y Google no existieran, y alguien propusiera que se les diera a dos corporaciones el control efectivo sobre la comunicación y el conocimiento globales?”, citó un trabajo sobre competencia regulada. “No suena muy deseable”, concluyó.

FUENTE : INFOBAE
FOTO TAPA : CEUPE

Noticiasxfn.com no se hace responsable del contenido de los artículos generados por terceros

Cultura

LA PROFESORA K PODRÍA VOLVER A CLASES Y EL ALUMNO ATACADO DENUNCIÓ AMENAZAS

Published

on

Laura Radetich, la docente filmada adoctrinando alumnos, no recibió ninguna sanción y solo está alejada de la escuela por una licencia médica

A dos meses del escándalo, Laura Radetich, la profesora K que había sido filmada adoctrinando a sus alumnos, podría volver a dar clases en la Escuela Secundaria Técnica Nº2 “María Eva Duarte”, de la localidad bonaerense de Ciudad Evita. El sumario disciplinario no avanzó y por el momento solo está alejada del colegio por una licencia médica.

Radetich, de 59 años, da clases de historia en la escuela técnica. En el video que luego se hizo viral se la ve a la docente atacando a uno de sus alumnos de cuarto año, en medio de una discusión por la gestión de Mauricio Macri.

“Macri te robó. ¿Que esto es gratis? ¿que porque tiene ojitos celestes no va a robar? Te robó. Te robó el futuro”, le dijo la docente con el tono de voz elevado e increpando al estudiante. “¿Y este no?”, le contestó el chico para indicarle si con el actual presidente, Alberto Fernández no ocurría lo mismo. “No me robó nadie, nadie te robó. vos podés venir acá y comer esta porquería porque te lo da el Estado. Andá a pagar con el sueldo de tu papá una escuela privada como esta… andá dale, andá!”, atacó la docente.

Jeremías se llama el joven que había sido increpado. En las últimas horas, el alumno se expresó respecto a la posibilidad de que la docente vuelva a la escuela. Dijo que si se concretaba el regreso, él debería cambiarse de colegio. Incluso se refirió a amenazas que tanto Radetich como su marido habrían hecho contra él.

“Nos enteramos de que existe la posibilidad de que ella vuelva y estamos preocupados. Hubo mensajes en Twitter. Yo no tengo, pero me los leyeron y hay capturas de pantalla. Si me la cruzo, la voy a pasar mal. Son amenazas. Ya me amenazó el marido, ahora ella. Para ella, el adoctrinamiento era natural. Lo hacía hace mucho. No va a parar ahora”, dijo en diálogo con Radio Mitre.

Laura Radetich es profesora de historiaLaura Radetich es profesora de historia

A fines de agosto, cuando el video salió a la luz, a Radetich se la separó provisoriamente del cargo. Se le inició un sumario por el artículo 139, que dice: “Cuando a un docente se le impute la comisión de faltas o hechos que configuren presuntivamente faltas graves, la dirección docente correspondiente procederá a una investigación a efectos de resolver sobre la conveniencia o no del pedido de instrucción del sumario a la Subsecretaría de Educación”.

De haberse comprobado la falta grave, existían cinco posibles sanciones1) Suspensión desde seis (6) a noventa (90) días. 2) Postergación de ascenso de jerarquía o acrecentamiento por tiempo limitado en la respectiva resolución, hasta un máximo de seis (6) años. 3) Descenso de jerarquía. 4) Cesantía. 5) Exoneración que implicará su cese en todos los cargos docentes.

Pasados los dos meses todavía no hay una resolución por la vía disciplinaria más allá de la investigación está en curso. Ante la demora, la docente está alejada de la escuela únicamente por una licencia psiquiátrica que solicitó. Lo que especulan en la es que la junta que debe analizar el caso va a prorrogar esa licencia médica para “aquietar las aguas”, pero que no va a haber una sanción de ningún tipo por el video filtrado.

Radetich, de 59 años, tiene una amplia trayectoriaen la docencia y una maestría en la Universidad de Salamanca en España, según surge de su perfil en Linkedin. De acuerdo a sus registros previsionales, Radetich trabajó en el Congreso de la Nación, en la Universidad de Buenos Aires y en la Ciudad de Buenos Aires -renunció en 2012-. Además de la escuela de Ciudad Evita donde quiso adoctrinar a sus alumnos, trabaja también en el Instituto Superior de Formación Docente y Técnica Nº46 “2 de Abril”, donde es jefa del área de Historia y Geografía y capacita a futuros docentes.

FUENTE : INFOBAE

Noticiasxfn.com no se hace responsable del contenido de los artículos generados por terceros

Continue Reading

Cultura

PLAN PLATITA

Published

on

Bauer apelará el freno de Servini al pago de $ 5.000 a miles de jóvenes

La magistrada concedió un amparo disponiendo que ese dinero se pague después del 14 de noviembre, porque “podía atentar contra el derecho de votar libremente”. Desde Cultura replicaron que “de ninguna manera se busca promover la captación del voto”.

La jueza federal con competencia electoral María Servini dictó en las últimas horas una “orden de restricción” preventiva para impedir que el Ministerio de Cultura de la Nación avance con el pago de 5.000 pesos a los jóvenes que resulten beneficiarios del programa “Más Cultura Joven“, al considerar que ese plan “incumplía la veda previa a los comicios“, pero este jueves 21 de octubre el ministro Tristán Bauer insistió en que “no se violó ni se rompió ninguna veda, por lo que recurriremos a todas las vías legales necesarias para apelar esta medida cautelar.

“El lanzamiento de ese programa se realizó conforme a los tiempos y formas que impone la Ley Electoral, de ninguna manera se busca promover la captación del voto en las próximas elecciones”, sostuvo Bauer, al confirmar que el Gobierno apelará la decisión de Servini. La magistrada con competencia electoral hizo lugar al pedido de un particular, Alejandro Gómez, y ordenando a la cartera de Bauer que “se abstenga de disponer de los fondos de dicho Ministerio, para dar cumplimiento con la Resolución N° 1499/21, hasta pasadas las elecciones generales previstas para el día 14 de noviembre próximo”, según la resolución conocida ayer. Servini puntualizó en su decisión la “urgencia del caso” y sostuvo que su decisión se basaba en “el único fin de proteger adecuadamente el derecho al voto de todos los ciudadanos”.

“Con el fin de evitar cualquier situación que pudiera atentar contra el derecho a elegir libremente, corresponde disponer, en forma previa a la sustanciación de este proceso, una orden de restricción al Sr. Ministro de Cultura de la Nación, Sr. Tristán Bauer, al sólo efecto de que se abstenga de disponer de los fondos de dicho Ministerio, para dar cumplimiento con la Resolución N° 1499/21, hasta pasadas las elecciones generales previstas para el día 14 de noviembre próximo”, señaló Servini.

Quienes podían acceder a los$ 5.000 del programa “Más Cultura Joven”

La medida cautelar se concedió como paso previo al trámite de la denuncia presentada por Gómez con el patrocinio del abogado Cristian Cao. En su presentación ante la justicia electoral, argumentaron que “la entrega de dichas sumas dinerarias durante el proceso electoral infringe lo dispuesto por el art. 64 del Código Electoral Nacional”.

Pero desde el Ministerio de Cultura, el gobierno del presidente Alberto Fernández sostuvo que con el programa anunciado “no se violó ni se rompió ninguna veda. Se realizó conforme a los tiempos y formas que impone la Ley Electoral porque es un programa que de ninguna manera busca promover la captación del voto en las próximas elecciones”.

“Recurriremos a todas las vías legales necesarias para apelar esta medida cautelar que intenta impedir la posibilidad de miles de jóvenes de ejercer a pleno el derecho a disfrutar de prácticas, bienes y servicios destinados a fortalecer la inclusión en la Argentina”, indicó la cartera de Bauer.

La justicia frenó un anuncio del gobierno porque viola la veda electoral

“El programa Más Cultura, implementado por el Ministerio de Cultura, en colaboración con la Anses y el Banco Nación, es una política pública pensada, diseñada y elaborada con dos principios fundamentales: por un lado, impulsar y fortalecer la producción de uno de los sectores más castigados por la pandemia, como es el de las industrias culturales, que se traduce directa o indirectamente en más y mejores puestos de trabajo para artistas, trabajadores y trabajadoras de la cultura al generar nuevos públicos”, indicó Cultura en un comunicado.

Para Bauer, con ese programa “se busca promover la inclusión de más de un millón y medio de jóvenes que, a través de esta medida, puedan disfrutar de ir al cine, al teatro, a un recital, comprar un libro, la entrada de un espectáculo, porque entendemos que la cultura la hacemos todos y todas y tenemos derecho a disfrutarla todos y todas”.

“Se trata de una política similar a la que se realiza en países como Francia, España, Brasil y Uruguay e inclusive en otros distritos de la Argentina, como la Ciudad Autónoma de Buenos Aires, donde se está implementando en la actualidad”, se aseveró desde Cultura, recalcando que “el programa Más Cultura fue anunciado el 14 de octubre pasado en la sala de conferencias de la Casa Rosada y desde el 19 de octubre se abrió su inscripción, en la cual ya se anotaron más de 320.000 jóvenes para recibir el beneficio”.

“Solo se busca garantizar el derecho de acceso a bienes culturales por parte de las y los jóvenes de manera igualitaria y simplemente cumpliendo con los requisitos objetivos que exige el programa”, dijo la cartera de Bauer.

Cultura resaltó que “cabe destacar que el desarrollo de esta política forma parte de las múltiples y variadas medidas prácticas y acciones que realiza este Ministerio desde el inicio de su gestión, atento a las particularidades de cada momento y sin perjuicio de romper ninguna veda vigente”.

“El Gobierno nacional invirtió 20.900 millones de pesos durante la emergencia sanitaria alcanzando a más de 162 mil artistas, trabajadores y trabajadoras de la cultura con políticas tales como Cultura Solidaria, Fortalecer Cultura, Sostener Cultura, más de 6 mil espacios y organizaciones culturales con programas como Puntos de Cultura, Fondo Desarrollar, Plan Podestá, Apoyos Conabip, entre otros y más de 7.700 empresas culturales a través de ATPs y Repro II”, detalló la repartición a cargo de Tristán Bauer.

FUENTE PERFIL

FOTO TELAM

Noticiasxfn.com no se hace responsable del contenido de los artículos generados por terceros

Continue Reading

Cultura

LA RADIO Y EL FOLKLORE DE DUELO: MURIÓ PERLA CARLINO

Published

on

Una de las voces más queridas de la radio marplatense se calló hoy para siempre, aunque su recuerdo y su calidad humana quedarán por siempre en el recuerdo de todos los que pudieron escucharla.

 

Hace pocas horas dejó de existir una mujer que supo honrar la profesión que durante muchas décadas la puso en contacto con una audiencia que supo quererla y respetarla en base a su entrega y calidad y que la acompañó y homenajeó hasta el final de su vida.

Cultora de las tradiciones, ocupada siempre en las cuestiones de la comunidad, Perla Carlino condujo durante 40 años por LU6 los programas Brillando en la noche, desde la cero hora hasta las cinco de la madrugada, de Argentina, todos los días. Y como yapa para los oyentes, remataba con un programa de folklore y tradición que recuerdan los muchos amantes de la música y costumbres de nuestras tierras, como es Abriendo la tranquera, que llevaba al oyente hasta las seis de la mañana, cuando empezaba a clarear en el horizonte infinito del Atlántico y llegaba al estudio su amigo y compañero de tantas horas el «Vasco» Víctor Abel Giménez con su «Buenos Días Señor Día».

Antes ya era reconocida y amada por los más pequeños a través del recordado programa infantil  «El trencito de la alegría», junto a las voces comerciales de los locutores Julio Ranel y Silvia Chumilla.

En 2019 fue reconocida por el Senado de la Provincia de Buenos Aires “por su extensa trayectoria e importante aporte a la cultura marplatense, que la erigen como un ejemplo de persona y profesionalismo”.

Nuestro recuerdo para una amiga y querida compañera de profesión a la que siempre recordaremos con el afecto que supo ganarse en todos los que tuvimos oportunidad de compartir con ella un estudio, el micrófono y la magia de la radio.

¡¡¡Hasta siempre Perla!!! y gracias por tanto que le diste a la radio.

fuente : libre expresión

Noticiasxfn.com no se hace responsable del contenido de los artículos generados por terceros

Continue Reading

Más Vistas