女子陸上選手の顔写真を裸に加工 AI技術「ディープフェイク」悪用で 男を書類送検
AI(人工知能)の技術を悪用し、女子陸上選手の顔写真と別人の裸の写真を合成し、SNSに投稿した疑いで大学生の男が書類送検された。
愛知県に住む20代の大学生の男は2023年3月、女子陸上選手の顔写真と別人の裸の写真を合成し、SNSに投稿した名誉毀損(きそん)の疑いが持たれている。
男は、面識のない女子選手のユニホーム姿の写真をネット上からダウンロードした後、AI技術のひとつで偽の画像が精巧に合成できる「ディープフェイク」のサイトを悪用したという。
男のスマートフォンからは70人ほどの女性の顔写真が見つかったほか、SNSにわいせつ画像を100枚投稿していたということで、調べに対し「自分の欲求を満たすためにやった」と容疑を認めているという。
https://news.yahoo.co.jp/articles/621fbd9dbb182077ea030de3c276474a2151df0a
アイ?コラ?
ダメに決まってるのに
投稿するな
こういうの専門で探す人がおるんやな
>>5
シコったおっさんの賢者タイム通報や
まるで面識あればセーフだったみたいな
つくるまでに止めときゃいいのに
なんで放流するんやろうな?
ボランティア精神?
自己顕示欲や
それ以外ない
クソエロいの作ったら公開したくなる気持ちは分かるけど本当にやるのはアホや
剥ぎAIとか出回りすぎてド違法って認識してないやつ多そうやし良い見せしめやろ
【画像】
一人でコソコソやっとけばええのに
こういう奴がいるから規制が強まるんだよね
警察さん!参考画像ないとセーフとアウトの線引き分かりませんよ!
これ売ったら儲かるんちゃうか!?俺天才やんけ!ってウキウキやったんやろなあ
こういうのって40代くらいのおっさんがやってるもんやと思ってたんやが
愛知の20歳とか絶対ネラーやろ
【画像】👈😡👉【画像】
ツイッター上坂道アイドルのアイコラいっぱい転がってるけど ああいうの本人が訴えないと捕まらないのかな
こんなんで捕まるとか厳しすぎやろ
こいつの名前と顔写真出したれ
-
【悲報】大人気ソシャゲに出演中の声優さん、特殊詐欺の受け子で逮捕される!←ガチで人気ゲームでワロタ
続きを見る