アップル、子供のヌード写真を送受信したら警告する機能導入へ [123322212]
■ このスレッドは過去ログ倉庫に格納されています
米アップルは20日、子どもがiPhoneなどのメッセージアプリで、ヌードが含まれる写真を送受信する際に警告を表示する機能を
日本でも導入すると明らかにした。オンラインでの性的搾取や不適切な画像の共有を防ぐ狙い。この機能は米国で最初に導入され、
既に9カ国で展開している。数週間以内にソフトを更新し、日本や韓国など6カ国を加える。
アップルiCloudで家族として設定しているアカウントで使う。初期設定では有効になっておらず保護者が設定する。
写真にヌードが含まれているかどうかは端末のAIで分析。アップル側が画像やメッセージを見たり、
検出有無を知ったりすることはないという。
https://www.47news.jp/economics/8968220.html 大丈夫 熟女のだらしないケツから見えるケツアナと白マン汁ダラダラのまんこしか興味ないから うpろだ時代に戻るだけや
パスワード当てるために何スレも消化された時代 OneDriveで勝手にメディアをアップしてたことに気づいた時は驚いたなあ
ミュージックPVだったから助かったが アップル使い=ポリコレダブスタ野郎
オンボロイド=ロリコン >>3
里芋と見分け付かなさそうだし大丈夫じゃないか 27歳でもノーメイクだと中学生みたいなOLとかどうすんねん。 スマホが突然、コイツはロリコンだぁ~!コイツはロリコンだぁ~!って鳴り始めるの? 児ポはともかく「子供にエロを見せちゃいけない」
って考え方自体どうなんだろう?
子供だって普通にエロいよ? >>27
そんなやつは存在しない
中学生に間違えられるんですよーってやつも中学生かと思ったと言う人もいるが全ては優しさからくる嘘だ そのうち大人のヌードもOUTとか要らん事して来そう... 絵でもダメなのかな?
昨日だか一昨日のAI絵師のスレみたいなのもダメ? どうせ水着でプールで遊んでるだけの画像で通報とかされるんだろ >>34
因みに米国じゃAndroidで同じ事やると警察に自動的に通報されるからな アップルは判別用のデータを一杯持ってるんですかねぇ コンピュータからプライバシーというものが失われていく一方だな 一番取り締まらなきゃいけないのはTwitterインスタのDMだろww
これが犯罪の温床になってるから監視するか廃止した方がいい もしそれを判別できるのなら
他にもやってるだろ
情報を抜いてそのデータをどうしてるんだか こういうので集めたやつをまとめてアップル写真館として売ってるのか? >>55
理解するのに15秒かかるようなもん貼るなやw お腹ポッコリ赤ちゃん体型の俺様のヌード写真もアウトだと言うことか こういう機能はどんどん拡充させていけ
一般人からしたら利益しかない 水遊びで画像検索するとわらわら出てくるあれもダメなの? 子供がヌード写真を送受信する場合だろ
大人はええねん これ日本人とかアジア人の成人女性の裸でも反応する可能性高いだろ
欧米人は日本のふつうのAVも児童ポルノに見えるらしいじゃん >>72
そのうち大人も規制してくるぜ
欧米人のエロに対する忌避感は半端ない
みんなエロいくせに(´・ω・`) AIじゃ細かいチェックは判断できないな
ここはオレたちの出番じゃないか ハダカデバネズミとか、猫のスフィンクスとかが引っかかるんだろ? やっぱちんちんの剥け具合とか毛の生え具合とか色の赤黒さ加減でこれは子供アウトってなるの?
自分のチンコ写真撮っただけで警告出たらどうすればいいの? 病気とかの画像は大丈夫なのかな
前にそんなトラブルあったような… >>88
医者に言われて病気の子供の写真送ったらアップルにBANされたやつだっけか >>1
Google様はアカウントBANなんだが? 俺がもっと良いシステムを開発してやるから
大量の教師データを下さい ブロックするAIと画像を加工してブロックを回避しようとするAIの戦いが見たい もうずっと前にSkydriveで問答無用で削除されてたぞ
遅い ■ このスレッドは過去ログ倉庫に格納されています