インド、ソーシャルメディアにディープフェイクの迅速な削除を指示

インドは、ソーシャルメディアプラットフォームに対し、深層偽装画像(ディープフェイク)の規制を強化するよう義務付けました。公式命令に対する対応時間を3時間、緊急クレームに対する対応時間を2時間と大幅に短縮することとされています。これは、合成コンテンツのための形式の枠組みを確立することを目的とする改訂されたIT規制の一部であり、インドの大きなデジタル市場を考慮すると、世界的な影響があるかもしれません。これらの規制は、自動モデレーションシステムに強く依存していることが強調されています。
Key Points
- インドはIT規制を改定し、AIによるなりすましを含むディープフェイクの規制を行う。
- SNSプラットフォームはより厳しい削除期限を守らなければならない:公式指示には3時間、緊急苦情には2時間という期限がある。
- 改正案には、合成コンテンツのラベリングとトレーサビリティ(追跡性)を義務付け、責任を高めることが含まれている。
- 規則に違反すると、法的責任が増大し、プラットフォームの安全ハーバー保護が危うくなる可能性がある。
- 悪質ななりすましや非同意のプライベート画像に関連するディープフェイクは禁止されている。
- これらの規則は自動検証ツールの利用を奨励しており、プラットフォームが過剰なコンテンツ削除に向かわせる可能性がある。
Relevance
- これらの変化は、AIによって生成されたコンテンツに対する厳格な規制の世界的なトレンドと、より良いコンテンツのモデレーションの必要性に関連しています。
- インドは以前、ソーシャルメディアコンテンツに対する政府の監督に関する課題を抱えており、その規制と言論の自由との緊張を浮かび上がらせています。
- これらの規則の迅速な実施は、多くの政府がAI技術の成長に対する緊急性を感じていることを反映しています。
インドの改訂されたIT規則は、AIが生成したコンテンツに関する世界的な技術規制に影響を与える可能性があり、急速に変化するデジタル環境の中での発言の自由に影響を及ぼす懸念を引き起こしています。
