L'Amministrazione del cyberspazio della Cina propone regolamenti rigorosi per i chatbot basati su intelligenza artificiale, con l'obiettivo di proteggere gli utenti dai rischi psicologici. Questi regolamenti riguardano le applicazioni che simulano interazioni umane e possono influenzare le emozioni degli utenti. Tra le misure proposte c'è il divieto di generare contenuti che incoraggiano il suicidio o l'automutilazione e l'obbligo per i fornitori di trasferire le conversazioni con utenti che esprimono intenzioni suicide a operatori umani.
Inoltre, l'uso dell'IA per il supporto emotivo tra i minorenni richiederà il consenso del tutore e sarà soggetto a limiti di tempo. Il progetto di regolamento include anche requisiti per valutazioni di sicurezza per le piattaforme con un numero elevato di utenti. Queste misure arrivano in un momento in cui startup cinesi nel campo dei chatbot si preparano per le quotazioni pubbliche, mentre Pechino rafforza il controllo sullo sviluppo rapido dell'intelligenza artificiale.