
Alle Olimpiadi 2024 di Parigi, gli sportivi tedeschi hanno dichiarato di aver subito una serie di insulti e minacce online che hanno compromesso non poco la loro salute mentale e quindi, probabilmente, anche la serenità con cui hanno affrontato le prove sportive. Il problema dell’onda d’odio alimentata spesso da bot e troll ha fatto sì che si implementassero soluzioni basate sull’IA.
Minacce e insulti: il caso di Angelina Köhler
Come esempio del fenomeno, die Welt riporta il caso della nuotatrice Angelina Köhler, che ha dichiarato di essere stata bersaglio di bot cinesi, e quindi da programmi automatizzati che pubblicano commenti sui social, in risposta a dichiarazioni su sospetti di doping riguardanti una concorrente della Repubblica Popolare. Tra le offese ricevute, Köhler era stata definita nazista, in riferimento alla sua cittadinanza tedesca.
Köhler ha dichiarato che l’esperienza ha lasciato segni notevoli, sul suo equilibrio psicologico, spiegando che in seguito all’esperienza ha sviluppato una sorta di “delirio di persecuzione”. In seguito alla pressione e alle minacce ricevute online, avrebbe infatti cominciato a evitare di bere da bottiglie già aperte per timore che qualcuno potesse versarvi sostanze dopanti per poi accusarla. “Vorrei che il DOSB offrisse agli sportivi un referente di riferimento, in modo da non sentirsi abbandonati” ha dichiarato l’atleta.
Il Comitato Olimpico Tedesco reagisce con l’IA
In risposta, il Comitato Olimpico Tedesco (Deutscher Olympischer Sportbund o DOSB) ha annunciato misure più rigorose per contrastare questi attacchi in vista dei Giochi invernali di Milano-Cortina, che si terranno a febbraio.
La collaborazione con la Procura generale punta a monitorare e perseguire in maniera più efficace comportamenti offensivi e minacce online, mentre l’IA diventa uno strumento per arginare l’odio online contro gli atleti.
Un sistema in grado di filtrare i commenti d’odio sui social
In verità, già nel 2024, il DOSB aveva implementato un sistema basato su intelligenza artificiale, in grado di filtrare in tempo reale i commenti d’odio sui social media della squadra tedesca e dei singoli atleti.
Durante i Giochi estivi, sono stati analizzati circa 60.000 commenti e ne sono stati filtrati 4.000. Il 45% dei commenti è risultato offensivo, il 9% razzista e il 44% è stato classificato come spam. Gli attacchi razzisti hanno incluso episodi contro il portabandiera Dennis Schröder e l’hockeyista Gonzalo Peillat, quest’ultimo argentino di nascita, ma in gara per la Germania.
Köhler ha tuttavia segnalato un problema nell’attuazione del programma, che non sarebbe stato reso sufficientemente noto agli atleti prima delle Olimpiadi. Lei stessa dichiara infatti di non essere stata informata della sua esistenza. In vista dei Giochi invernali, è stato quindi previsto un incontro informativo con la squadra tedesca, il 7 gennaio.
Saranno gli atleti a decidere se attivare l’IA sui loro social
Gli atleti potranno quindi decidere se attivare il sistema AI sui propri social media, per bloccare automaticamente ogni attacco e ridurre l’impatto psicologico dei commenti distruttivi, allo scopo di di concentrarsi in (relativa) serenità sulle prestazioni sportive.
Tutti gli attacchi verranno registrati e archiviati. In caso di sospetto di incitamento all’odio, la Procura generale verrà immediatamente informata. Dopo le competizioni, gli atleti avranno la facoltà di esaminare i commenti ritenuti offensivi e valutare eventuali azioni legali, con il supporto del Comitato Olimpico e delle autorità competenti.
Tutela della salute mentale e presenza dei welfare officer
Il DOSB ha sottolineato che la protezione della salute mentale degli atleti resta prioritaria. Per questo motivo, ai Giochi invernali saranno presenti dei Welfare Officer, come punto di riferimento per chi subisce attacchi di questo tipo. Gli operatori interverranno anche in caso di attacchi improvvisi, attivando su richiesta la soluzione AI per prevenire effetti negativi sulle prestazioni e sul benessere psicologico.




