最近、政府がAI-powered差別的表現リスク評価システムを開発することを決めたと思いましたね。システムは言語や文化の違いを考慮した情報を提供し、国民が差別的表現に苦しむことなく自由に情報を利用できるようになるからです。ですが、実際にどれくらい効果があるかは明らかにされていないな。政府の主張は国民の権利を保護するためだけだとすごく単純すぎますよ。systemを開発する取り組みは政府と国民の間で共感や理解を持たせることを目標としているが、実際にはどれくらいそのように行っているかは知らないから、信頼性がありそうになくて困るな 🤔