Apple、iPhoneに性的虐待画像監視機能を搭載へ →ロリペド「Androidにするわ」「プライバシーガー」 [611241321]
■ このスレッドは過去ログ倉庫に格納されています
アップル、iPhoneで「児童性的虐待」の写真を摘発する…プライバシーの侵害論議に
アップルがiPhoneに児童に対する性的虐待を監視することができる機能を搭載すると明らかにし、議論が起きている。
児童を極悪な犯罪から保護するという意図だが、一種の「検閲」機能でプライバシーを侵害だとの指摘も出ている。
5日(現地時間)フィナンシャル・タイムズ(FT)によると、アップルは、来月、米国ユーザーに提供されるアップデートを介して、
児童の性的虐待画像を識別することができるソフトウェア(SW)を導入する計画である。
このSWの名前は「ニューラルマッチ」で、来月発売されるiPhoneのオペレーティングシステム(OS)の最新バージョンである
iOS15の新機能として追加される。人工知能(AI)機能を使用して、iPhoneに保存された画像の中から児童に対する性的虐待の疑いのある画像を識別し、
検討チームで違法性が摘発されれば法執行機関に連絡がいく方式である。この機能は、画像にのみ適用され、動画はスキャンできない。
アップル側は「時間をかけて進化し拡張する新しい児童保護システムの一部」と説明した。アップルは今週初め、
ビデオ会議を使用してこのプログラムを一部のアメリカの学者たちに詳細に説明したとFTは伝えた。
ただし、新しい機能がプライバシーの侵害の可能性があるとの批判も提起されている。アップルは、
プライバシーを最優先の価値に掲げ、競合他社との差別化されたブランドイメージを構築している。
アップル側はAIと暗号化技術を使用して画像をスキャンして、違法イメージのデータベースと一致するかどうかを
判読するものだとし、私生活のスクリーニングとは異なるという立場だ。
https://news.yahoo.co.jp/articles/07d967a2f2cdf33c483d896e866e17727cfb2d06 小さいチンコも引っかかる可能性あるのか
俺はアナコンダくらい大きいから問題ない 殺人防止とか窃盗防止も付けな
siriなら出来るだろ 肌色メインの画像を誤認させて通報させる遊びが流行りそう アップルさーんに逆に聞こう
AIの学習データどこから採取した? アメリカはそれだけ児童の虐待や性的虐待が深刻なんだよな
こうやって真剣に取り組まないとヤバいレベルで
他国も巻き込まれるけど致し方ないと思うわ >>6
これ。
アメリカとか自分の息子が裸で水浴びしてる写真もダメなんだろ? 児童ポルノ関連は日本でももっと厳しく監視すべき
なぜか左翼がプライバシーの侵害と猛烈な反対するけど 例えば娘がプールに入ってる写真がAppleに送信されて
それを社員が通報するかどうかを判断するために確認するってプロセスに気持ち悪さを感じる人もいるだろうね ほう、この検討チームってのにはどうやって入れるんだ? >>6
データベースと照合して見つけるのだからそういうのは反応しないのでは? それをピックアップするのは良いが、それ以外の写真含めてスクリーニングするのが怖いわ >>29
iPhone買うだけで信者認定とかほんとハードルというより敷居が下がったね 成人女性でも見た目で児童扱いされて削除とか必ず起きるなこれ >>29
普通の人はそんな画像持ってないから関係ないと知れ ちゃんとロリ画像が認識される限りは問題ないけど
関係ない画像も引っ掛かって検討チームで見られる可能性あるのは
まあ確かにヤバイ機能だな ネトウヨ「中華スマホがー!、Androidがーー!!、Appleさん、君は通ってよし!!!」 我が子の新生児写真とか海水浴の記念写真とか保存してるだけで逮捕か >>28
中の人がチンピクしなかったらセーフって事か! 息子と甥っ子たちがフルチンではしゃいでる画像あるけど、こういうのも駄目になるの? >>39
持ってなくても勘違いでBangされる奴は出てくるんじゃね?
復活するまで何日掛かるのか知らんけど >>40
片っ端からロリ画像を収集するってことだからなw
警察でもロリ動画はダビングして横流ししてるらしいしw
日本人の大学生とアメリカの中学生が同じ年齢くらいに見えるから、アップルに蒐集されまくるだろうなw 民間企業までもが検閲ごっこをやりだすのは異常だろ
情報統制の第一歩なのは明白゜ >>42
チェックはされるよな
うちの嫁幼児体型だから絶対林檎には出来ねえ >>45
アッチの基準じゃOUT
ショタ食い物にしているしな >>45
ダメと言うか検討チームで閲覧会が始まって「これは問題ない」って判断が下る(ハズの)システム
ただ検討チームにショタコンのド変態が混じってて
個人の”お楽しみ”に使用されたり
複製されて拡散される可能性も無きにしも非ずってのが気持ち悪い ロリコンにとっちゃ死活問題なんだな
自分には関係ないからどうでもいいけど >>28
もし本当に照合するなら民間企業のくせにAppleのどこかには違法画像がわんさかあるわけだ
照合しないならザルすぎて使い物にならんやろ 黒人はゴリラにカウントされるからヘーキヘーキ
需要があるかはおいといて ロリコンじゃないけど
5chで勝手に拾って
キャッシュに残るかもしれないから
iPhoneやめるは >>52
欧米では親子で風呂に入るのも駄目だとかそれだけ性犯罪が進んでいる証拠なんだよな
だからまともな日本は欧米の真似する必要はない >>45
たぶんしばらくは有名なロリ画像が対象になるんじゃねーか?
1人しか持ってないような画像じゃなくて、何人もが持ってるような同じ画像 データベースってどこが集めるんだよ
ロリコンを職やるのか? これクラウド内の画像までは見ないよね
iCloudは見るのかな ずっとiPhone使ってたけどAndroidに変えることに決意した
痛くもない腹を探られるのは不快な上気持ち悪いわ これで日本のiPhone-Android比率が逆転したら面白い 検討チームの求人募集していませんか?
力になれると思います たまにネットに転がってるアウ炉を保存できなくなるやろがい 水着で水や虫を怖がって泣いている小さな息子娘を撮影したらoutってなかなかのディストピア ペド野郎が好む構図とかパターン化してそう
頭単純だろうし >>39
水着姿の娘を写真に撮ってたらアウトだったらどうすんの?
snsに載せなくてもiCloudデータに残ってたらダメなんだろ。 >>1
欧米のDV率や強姦率や幼児誘拐率や離婚率知ったら日本人びっくりするからな
どっちがロリコンでどっちが女性差別してるか分かるってもの
それに欧米の田舎に行けば行くほど未だに亭主関白な父親がいるから
ほんとどの口が言うのかって外国に対して思うわ
そもそも何でもかんでも差別差別言い出したから、
ちょっとの言葉じりで揚げ足をとる面倒くさい世の中になってんだからな エロゲメーカー「当作品に登場する人物は全て18歳以上です」
Apple「うるせーアウトだアウトー!」 >>83
まじかよお前のレスグーグルに報告しとくわ >>66
そんなもん、何年も前から確認されてるって言ってんじゃんw
アメリカなんかだと何年も前からgoogleのなんだっけ?に保存してた動画や画像でロリコンが捕まってるし 逆にAIにはロリコン画像に見える普通の画像とか作って混乱させたい お、お、俺には関係ないけど
最近はAndroidの機種もいいなって思ってたとこだ
関係ないけど 合法嫁画像がどんどん消されていく奴も出てくんのかね? 自由の国と言われていたアメリカも今は昔
今一番自由があるのは日本だから変な風習は拒否しないと欧米化されて自由がなくなる >>81
そういや最近エロゲの話題が少ないな
ちょっと前までボカシ除去とか全裸パッチのサイトが沢山あっけど、衰退したのか?
エロゲーマーの情熱を他に振り向ければ社会的に成功できたんじゃないかと思う熱い人が多いのになあ どうやって識別するんだろ
クライアント側に仕込んどくには容量デカすぎだろうし今どきやらんわな
てことは定期的に端末の中味覗かれるって事だろうが気持ち悪いな 国産OSの開発と、独自暗号化は最低限必要な情報漏えい社会になったな この機能が実装された後にiPhoneからAndroidに変えた教師は全員クビにしろよ
だれが得すんだ
バイバイアイフォン >iPhoneに保存された画像の中から児童に対する性的虐待の疑いのある画像を識別し、検討チームで違法性が摘発されれば法執行機関に連絡がいく
@iPhoneの中の画像をAIが解析
Aロリペドだったら検討チームへ勝手に送信 ←!!!!!!
B検討チームが画像を見て確認
C違法性があれば通報
こういうこと?Aやばくね?
俺Bのチームに入りたい Appleが中国にデータセンター作った時点で分かってたことだけどな
中国にデータセンターあるってことは…あとは分かるよな 俺のちんこ画像を監視されちゃうの?
イヤダはずかちい テロリストのiphoneのロック解除を拒否したくせに、何してるの? 外国みたいに変な宗教が関わっていない国産が最強って事だ 泥もGoogleに全部バレてるんでしょ?しょっぴかれるがどうかの違いで >>107
中国国内で販売しているiPhoneだけが対象だ馬鹿w …いや、個人的な画像見られる可能性あるってことでしょ
これが今はロリだけど
例えば今後は他の事でも写真をアップル側に見られるかもと
しかも端末であればクラウド関係なくだろ?
…ロリ対策ってか中国のご要望なんじゃねーのかコレ? スマホでエロとか見る奴がまだ居るのかよ。
あと、エロ画像にエロ動画なんてスマホに入れてたら人格を疑うレベルだけどな。
アドレス帳とメール以外にバックアップも取る必要も無いだろ。 そのうちすべてのOSにパターンマッチングの機能やAI検知の機能が必須になって、
再生したり画面表示したりできなくなる世界になるだろうね。
自動通報とかの機能まで波及するかは分からんけど。 まずいなおれのお気に入りエロVRのはるちゃんは引っかかるのか?
一応パッケージは服着てるからセーフか? 親が赤ん坊を抱いてる写真撮ったら
絞め殺そうとしていると認識するのかなw >ロイターの8月6日の記事によると、アップルは人々がiCloudにアップロードする前の写真をデータベースと照合し、問題がある画像を検出するという。
とりあえず、iCloudにアップロード対象だけみたいよ いうてグーグルも安全確保の建前で検閲してるし似たりよったりだろうけどな
同じ文言を各種検索にかけてヒット数の差見てみ? 今からしばらくの間、iPhoneからAndroidに換えた人は要注意だな Lolita / \ \ \
complex!complex!complex! / `、 `、
/ / `、 ハ l
/ / | ハ .| l
// | | __,≫=ミ. ―| | l
| jI斗  ̄ 〃 たハ \| | ̄\ l
/ /| / 弋_ン | | | .|
/ /|∨_ハ┌¬ア , ⊂ニ| | / |
厶 /| |Ζ/ 、 | l / |
八 /| |⊃ 、_,,∠ン | 厂 |
_ \∧ 人 ′ √ |
〈 `丶、(゙\ | 〕ト . / /// |
\ / ゝ ∨ | |////うぅ冖i / /'// |
丶 Y |//////_/}__// //// |
>┐ / | |/// ̄}/⌒∨ / ̄`丶 |
} / | ∨ /: /o/:/ / .l |
j | ∧ | /: : :/ :/:/ / / |
/ | / | |: : : : / :/:/ / // |
.′ |/ 八 リ: : : / :/: | / , ゙/, |
′ ∨ ∨ /: : : /o/: : | / , ゙/// |
| | 凶 : : / :/: : : У /∨///, |
| /厂| : : : /: : :/ /: : : ////, |
| __,,x≪ / ∨: :/: : / /: : : /'////, |
立件ロリコン党 なんで普通の犯罪捜査には頑なに協力拒否してこれはOKなん?
Apple何様なんだよ 巨大企業勤務のロリコンが個人のロリコンからロリコン画像を収集して
巨大ロリコン企業のサーバーから個人のロリコンのサーバーに移動させるたまの前フリ >>126
当局主導の操作に正義は無いけど
自分たちには正義があるってことだよ >>126
iCloudに上げられたあとに捜査されるとめんどくさいから、
その前段で済ませたいから、とか? >>123
Google垢が突然BANされて、原因はアップロードしていた子供の写真らしい
みたいなのはたまに話題になるしな 実際その国の政府や警察とかとの連携なしでネット検閲やったら問題になりそうだけどそこんとこどうなんだろ
それに網にかかるのは末端とも呼べない連中ぐらいで本当に取り締まるべき奴等はうまく逃げのびそう データベースから探るってことは自撮りの野良ネコのω集ならおkだな データベースとマッチングなし
→iCloudにアップロード
データベース+マッチングあり
→人力で審議開始
(審議のためにアップロード?)
結局アップロードするんでは… >>2
甘い。小柄な日本人熟女が素肌を露呈している画像はロリ判定される可能性がある。 これは取り締まるべきだとは思うが認めると他にも増えて持ち物全部把握されそうで怖いわ
やりすぎやな まあはっきり言えば弱いんだよ
お前らには何をやっても許される
オカマとかレズとか黒人には何もできない
そういう違い 日本で性的写真が撮れないスマホを作ろうみたいな署名活動あったな
実現に一歩近づいたね誇りに思っていい 夏野が欧米基準と言えば批判するのに
アップル様がロリを決めると言えば素直に従うのか。 2次元の画像検知して通報されるってパターンありそう 安達祐実のコスプレが引っ掛かるかチェックしてほしい >>20
アメリカは二次もアウトだろ
つまり俺らは全てアウト この状況を打破する手段は一つしかない
ロリコンどもは強くなれ
もうフェミに怯えて家に籠るのはやめろ
外に出て戦え
ブタみてえなババアどもを撮って晒して燃やしまくれ >>141
夏野のべき論と違って自分とこのハードやソフトの仕様決める側だからな
従うもクソも林檎が考え直さなきゃそうなる 自分ちの子供の水着写真がうっかり引っかかって大惨事になるんだろ? んで、またイソギンチャクとかでブロックされるんだろ >違法イメージのデータベースと一致するかどうかを判読
アップルは違法イメージのデータベースを持ってるんですね(*´д`*) ニューラフマッチの中身ホームレスみたいなおっさんなんだろうな >>1
検討チームが見る時点で完全にプライバシーの侵害やんけ 検討チームにデータが渡る時点で面白い
どうなることやら ロリコンはAppleに入社して検閲する側になればいいじゃない なんで海外ってそんなに小児性愛にたいして厳しいの?
理由がただただ知りたい これ逆にAppleが大量にロリペド写真データ収集する事にならんか? >>122
つまりiCloudにアップした画像はすべてappleに見られてるってことだろ
プライベートな写真とか上げられない 検証用の画像です
iOS機を使用している方はダウンロードお願いします
https://i.imgur.com/MGeChfV.jpg リアル写実画ならOKなの? 絵が駄目なら小便小僧や慰安婦少女像 未成年裸婦画もだめだよね。 >>156
実際の被害が多いから
日本人は妄想で終わらせる データベースと照合じゃなんの意味もなくない?
自分でそこらの少女を犯して撮った写真は引っ掛からず
ネットで拾った幼女の水着画像保存すると逮捕されるってこと? Dropbox+Cryptomatorのワイ高みの見物 なおAndroid
7 専守防衛さん sage 2021/03/19(金) 19:59:00.23
Android使ってる奴は隠れて児ポを撮影してもAndroidシステム自体に含まれているGoogle謹製の検閲用AIに自動通報されて逮捕祭りだからな
しかしそもそもそういう奴ははじめからiPhone使ってるけど 既存の違法画像とのマッチング率が高い画像を見つけたら関係者が見て判断するってことか
プライバシーも何もあったもんじゃねー Apple社員がみんなのエロ画像収集できる機能付けるの? 違法イメージのデータベースを審査するため我々エリートν速民に解放すべき ロリペド問題は欧米の社会問題だから否応でも巻き込まれるわな
もうどうしようもない。ロリペドさんたちは諦めなさい >>178
完全にディストピアだが…
まぁ林檎信者が望むのは、そういう完全管理社会ってことで >違法イメージのデータベースと一致するかどうかを判読
そのデータベースは参考資料として公開されるべきだ 検討チームが検討しているところも公開されますよね? ちなみにクラウドならマイクロソフトやGoogleは通報事例がアメリカで既にある
Gmailも検閲して通報事例がある エロマンガもアウトだったりするから二次元さえやばいかもよ 俺はロリコンじゃない!
雨蘭
これKindleでBANされたから、アップルでも持ってる奴ヤバいな データベース作るのにその手の画像を集めまくったのか。アップルは違法画像をしこたま持ってる事になる。 あっちは小児性愛者は憲法適用対象外なんだろう
日本の暴対法感覚
人権意識は高くてもアボリジニは人に非ずとやってきたように例外を設ければOKのようだ 虐待画像を検索するというのを錦の御旗にしているけど、単純に都合の悪いのを検閲する為だろ 誤検知も当然出るだろうし、その時にも見られるのは完全に侵害だろ アメリカで祖父が孫から送られたプールで遊んだ写真受信したら
法機関から問い合わせきたとかあったはず
自動でサーバー監視してるとかで >>185
情報が錯綜してるな
プライベートな端末の画像をスキャンする事への懸念がアメリカの大学教授から出てるし こんなんダメだろ。ファンザのロリ物サンプル画像(合法)も反応しちゃうじゃん >>203
ローカルまで検閲されたらディストピアだわ
Apple Google Microsoftの管理下で暮らす恐怖 apple側が都度どの画像をAIでチェックしたかさらに担当者の誰が閲覧したかを利用者に報告する必要があるかと 第3のOS欲しいわ
広告屋の GoogleもGmailでさえ検閲してるし >>194
最終的にもんだいはないがAIが管理会社に「こいつ児ポ画像収集してるっぽいですぜ」っていう報告はする感じになるんじゃね
んであとは手動で社員が中身見て確認とか アップロードされているロリ画像を保存している端末を検知して、警告なり通報する仕組みとかじゃないのか まあその流れで何故か大量の女子小学生中学生が補導されるわけだが オンボロイド使ってるから別に良いけどそもそもこいつらに他人のストレージを覗き見る権利はどこから来るのか ひろゆきがまたしても正しかったな
お前らはスマホはゴミだ
PCに戻れ >>2
俺デブ専なんだけど
デブ女の写真は高確率で「赤ちゃん」フォルダに勝手に分類されてるわ >>209
その画像を検討チームとやらが見て通報するか判断するんだぞ
本来見た奴らも豚箱行きだろ 待て待て待て待て
わしの恥ずかしい画像フォルダを勝手に覗かれるってことなのか?
ロリとか無関係にそれはあかんやろ >>211
端末使用開始持の規約に同意しないと動かないとかそういう時代w >>212
調べたらLinuxのスマホなんてあるのかサンクス 自分の子供の写真とかを勝手に見られる可能性があるって事か?
それは普通にダメじゃね? 泥の売上があがるなこれは
誤認で消されたら最悪だからな >>210
ゲス男「それだとリベポをネタに脅せなくなるじゃねぇか!」 デフォがiCloud保存なんだから
画像送りつけテロができるんじゃね? ダメな画像が見つかっったら、即座に位置情報と一緒に通報されるの? >>14
そうだね
助かる子供達が大勢いるだろうからどんどんやってほしい >>39
そういう画像かどうか判断するには全写真スクリーニングするんじゃ無いの?
機械とはいえ、赤の他人に覗かれる訳でしょ >>219
違法性がある時に確認のために見れると、覗いてたら違法性がある物が見つかった、は同じじゃねえだろ
むしろ勝手に覗いてた事自体が違法性があるんじゃねえのか?
しかも別に法執行機関でもなんでもない、何の権限もないリンゴなんとかチームが覗き見るんだろ >>230
今のところアメリカ国内だけ
>>185の記事見るとiCloudのみな可能性がある
ちなみにマイクロソフトもクラウド通報事例あるし Googleも Gmail通報事例ある
https://i.imgur.com/cJpyX1X.jpg >>233
いやだからアプリ更新しないと最新アプリ使えなくなるし
そのときの規約に覗き見るよに同意しないと動かなくなるw Appleも結局言ってることとやってることが違うんだよなー
やっぱGAFAはEvilだわ 英語の記事読むと、ローカル全部じゃなくてiCloudにあげるものをスキャンするって話だね
厳しいアメリカだけに、自分の子供の裸とか当然にアウトになるけどね
あと、Googleは既にやってるから、画像チェックが怖くて乗り換えとかバカなことは考えない方がいい >>1
二次元もアウトなの?
ならお前ら大量通報まつりだな まあ友人がエロ画像をオンラインストレージサービスに保存してたら削除されたって言ってたからそういうのは検閲されてるのは知ってた
外部にアップしたのなら検閲は致し方ない
スマホのストレージを直で覗き見るのはありえない >>237
だからその規約自体に違法性があるのでは? 判別するためにロリペドじゃない画像もチェックはされるんだよね >>244
法律家じゃないからそのへんはわからんw
どのみち時代の流れには抗えないと思うわ >>239
だよなアメリカのみクラウドに上げる画像のみ検閲するって書いてあるな
ただなんとなく嫌だわ 二次元のエロマンガやアニメ絵でも検閲され
裏で二次元エロマニアなんてバレる時代来そう 検閲係がその画像を自分の児ポコレクションに加えるんだろ
知ってる >>250
何かの記事で Google社員がクラウドの写真見て社員同士で笑ってたのがバレたっての見たわ
本当に検閲って嫌だわ アップルのa13とかM1チップにAI処理できる機能ついてるから
ローカルでチェックされるってのは時間の問題だろうなw
そしてこれはPCでも当たり前になる
windows11 >>243
な訳ない
AIが親族の水着かそうでないか判断は無理だから社員に目視確認されるんじゃないかってことでしょえ >>253
そもそもアメリカ基準だと自分の子供でも子供の裸画像って幼児虐待とか疑われるぞ iPhoneの今度のアップデートはなかなかクソだな
メールの開封率も取れなくなるのも嫌だわ 今流行のエシカル(倫理的)なテクノロジーとやらは治安維持の為にユーザーデータを覗き見て検閲無双なんですね
すでに中国が実現してるじゃんw
ファーウェイのスマホやハイクビジョンのカメラなんて政府に全部垂れ流しなんだから最高だなw やべえ、twitterが無法地帯だったころ集めたJCの自撮り画像とか他に移さないと アメリカのロリコンどもは気の毒に
さぞ肩身が狭い思いしてんだろ 自分の子供の写真も撮れなくなるのか
iPhone終了だな 俺の予想だけど膨大な量の画像から怪しいのをAIがピックアップして人間が最終判断を下すんだと思う ローカルは大丈夫
そしてクラウドも今のところアメリカで使用されてるiPhoneのみみたいだが >>28
要は関西援交とか保存してたらアウトとかってこと? いつものAppleが〇〇始めます→Googleはもうやってたパターンじゃん
ロリコンのお前ら逃げ場ねえぞ >>266
ショタじゃなきゃOKいやマジで
ホモは追風だし >>267
Google検索だといくらでも出てくる 社員最高だな
色んなハメ撮りとか児ポ確認の為に毎日これから見放題なんだろ 動画は触らないみたいだしrenコマンドで拡張子変えとけばおk? Googleやマイクロソフトはすでに検閲してるからな 勝手にicloudにアップしたりしてるし今更じゃね?w >>243
ダメでいいじゃん
なぜ裸の写真を撮る? 東側の検閲は汚い検閲
西側の検閲は綺麗な検閲
共産主義者の検閲は危険な検閲
クリスチャンの検閲は正義の検閲 熟専だけどiCloudをOSから切り離せよ覗くな気持ち悪い アメリカのキリスト教徒目線での判断だから怖いわ
アジア人とか全員子供扱いしそうだし >>282
家のプールでちんちんだして入ることもあるだろ。
乳幼児は。
独身にはわからねーか ロリペド狩りは現在の魔女狩り
シ□ンボ共は過去を全然反省していない 子供の裸画像は国内でも児童ポルノと見做される可能性があるから
今回のAppleとか関係なく所持しない方が良いよ
スピード違反と同じで、他にやってる人が居ようが関係なく目をつけられたらアウト >>287
水遊び で画像検索してみ?
お前の子供も出てくるかもよ?
保育園とか幼稚園信用したらひどい事になる ただ、義父に小6の時からずっとオモチャにされてて結局風俗堕ちしヤクザの肉便器になった子知ってるから、社会がクズを監視するシステムの必要性は感じるな
自分の町内にもそういった被害者は必ず居ると言っても良いくらいのレベルで家庭内性被害は多い windowsパソコンって勝手に画像とかなくなってない?
あの画像また見たいなーと思ったけど、確かあったフォルダや画像が見当たらなくなったり、
WAVとかの音楽ファイル見つからなくなったり。 昔Gmailでロリ画像自分に送信してGoogleにちくられてつかまったひといなかった? 虐待画像じゃなくても普通のエロ画像なんなら風景画像とかすら勝手にスキャンしてくるって事だよな。
それは嫌かもな >>298
それ嫌儲民にも居たぞ
148 番組の途中ですがアフィサイトへの転載は禁止です (ワッチョイW 6b6e-HNW7) 2016/08/24(水) 00:46:21.63 ID:/MRtL7Id0
>>144
なんJだったか嫌儲だったかで拾ったアウロリをGmailでスマホから自分宛に送ったら検閲されてアカウント無効化→3ヶ月後に市警察が捜査令状持って家に来た
そしてアウロリが入ってたHDDを押収されてカリフォルニア州法311.11(c) 600枚以上の児ポ所持の容疑で逮捕された
202 番組の途中ですがアフィサイトへの転載は禁止です (ワッチョイW 6b6e-HNW7) 2016/08/24(水) 01:24:50.73 ID:/MRtL7Id0
一応刑務所のIDカード
http://i.imgur.com/dyK5fcz.jpg マジあり得んわ
大急ぎでAndroidに機種変してきた
2chMate 0.8.10.106/Sony/XQ-AS42/11/DR >>302
アメリカ旅行にいったら空港で逮捕とかありそうだな >>305
オーストラリアの空港で日本人捕まったよね googleフォトとか幼児の入浴の写真でgoogleアカウント凍結になるらしいな。 >>305
二次元のロリ画像スマホに入れてて逮捕されてた奴いたな それだけロリを学習させたのか
学習データ見せろよw 検閲されないコンピュータを求めて未来人がタイムマシンでやってくるかもなw 世の親御さんのスマホ探ったらロリショタ判定だらけになるだろ 心にやましい事があるから
そうやっていつもビクビクしてんだよォ エスパー魔美が再放送されないのはたぶんお父さんのせい >>107
中国がロリコンを取り締まり出したって事っすか? LGBT黒人フェミヴィーガン
この大マイナリティ時代になぜ俺たちロリコンだけ迫害されるのだ... エプスタイン島に入り浸ってた連中の中にアップルのお偉いさんいなかった? 言ってる事は分かるが
それをiPhoneに機能として取り入れるのはどうなのよ?
別の事にも使われそうだしな
写真機能をメーカーが覗けるってのはきみが悪い 人種差別にしろ児ポにしろポリコレってのは
「本当はしたくてしたくてたまらない」
ことを建前で無理して我慢することで悦に浸る行為だと思ってる
要するに白人はロリが好きでたまらない たまにうちの子の泣いてるとこ撮ったりしてるが、それも引っかかるの? どっかの露天風呂で仲間の梅吉さんの裸撮影したらAIが自動的に警察に通報するのか。恐ろしいなあ。 >>12
つーか、
全てのカメラが24時間、
裏で作動してて
状況を勝手に把握して送信するんじゃね?
スマートスピーカーみたいに。 普通に、携帯電話にカメラ搭載を禁止すればいいんだよ
今後、この流れになると思う >>334
カメラいらねーよな
何のためについてんだろ ジャニーズとか乃木坂の若手アイドルの画像も消されるのかな >アップル側はAIと暗号化技術を使用して画像をスキャンして、
>違法イメージのデータベースと一致するかどうかを判読するもの
アップルのサーバーには児童ポルノの画像をたくさんあるってことだろ
アップルを摘発しろよ 日本のavとか二次元絵とかはどうしたらいいの?
日本にいる分には大丈夫だろうけど
アメリカに行く用事ができるかも知れないし 人工知能に識別させるのかよw
絶対間違いとかあるやろ アップルは児童虐待の画像を大量に保管しててAIに学習させたってことじゃん
アップルを逮捕しろ ロリコンはなんでLGBTに食い込めないの?
レズやゲイはともかく誰でもいいってだけのバイや本人の主張のみのトランスミッションなんかいらんだろ
レズ・ゲイ・ロリコン・ネクロフィリアにしろ あいつらロリ関連は法を無視して取り締まっていいはず、という意見が多数派らしいからな お前のスマホの中の画像こっちで全部確認するからよろしくって
堂々と宣言するのすごくね 公表してないだけでずっと前から検閲はしてたんだろうな 検閲するのは多分画像だけではなくて、全ての情報だろうなコレ
ショートメールに何らかのやばい文言があったらある日警察がおはようございますって来訪しそう アメリカ国内だとGoogleもロリペドを監視&通報しているんやなかったけ?
ロリ画像送信して捕まった日本人おったやろ 肘を曲げたアップの画像撮ったら尻とか割れ目と誤認されるか 乳児の初めての入浴シーンを記念に撮って逮捕されるんだな? いっそ指名手配犯の検索とかやればいい
位置情報とセットなら過去のものでも価値があるだろう アップルこええな
AIが判別したとしても誤報がある以上社員が確認するはずだし他人が見るとかガチで気持ち悪すぎる AI.AIって言うけど、AIって馬鹿じゃん
YoutubeだってAIが監視してるけど、違法動画だらけだし 俺の娘と息子がお風呂で泡泡になって遊んでる画像もアウトなん?
やだぜ すいません、自分の子(1歳)の写真で服着てないのがあるのですが大丈夫でしょうか。
できれば、消したくありません。 iCloudのみでiPhoneローカルは検閲しないと書いてある
https://japanese.engadget.com/apple-expanded-protections-for-children-043013628.html
アップルは自動検出機能がiCloudに保存される写真のみを対象としており、完全にローカルに保存されている画像は対象外とも説明しています。
しかし米ジョン・ホプキンズ大学のマシュー・グリーン氏(暗号技術の専門家)は、CSAMデータベースの照合が「偽陽性」(誤判定)になったり、意図的にデータベースと一致するハッシュを持つ偽画像を作って迷惑をかけたい相手に送らせたり、権威主義的な政府に悪用される危険を指摘しています。
常日ごろユーザーのプライバシーを強調しているアップルが、個人的に撮影あるいは保有している写真や、メッセージに添付された画像の審査を行うことは、大きな方針転換には違いありません。実際に画像のスキャンが実行に移されるまでにはしばらく日にちがありそうですが、その間にさらなる議論が巻き起こることにもなりそうです。 子供の湿疹とか症状記録した写真も誤認されそうだな
最近の親は皆んなそうして医者に写真見せるよ >>373のとおりクラウドのみなら
マイクロソフトやGoogleも行ってる事だろ つまりアップルはiPhoneの中身常に覗いてんのか
気持ち悪い会社だな >>373
でもデフォがクラウドにアップする仕様でしょ
そして判定は基本はAIなんだろうけど紛らわしいものはスタッフが直接確認だろうし
プライベートな写真なんて上げられないだろ ロリコン死ねよと思ってるからもっと強化しろよ
ネット検索も通報しろ
犯罪者を絶滅させろ >>1
ハニトラがもっと簡単になるじゃん
誤検出かましたら責任取るの? >>349
検査したくないからだろうな
児ポはみんなが検査したくてワクワクしてるんだ >>382 ガチでオーストラリアの警察が児ぽ画像を自分用目的として収集してた事件があるから
笑えないわ >>362
ちょっと前にアベマでコメンテーターが、自分の4歳の娘がよく知りを出すから撮影しておいて結婚式で晒してやるんだって笑って言っててアナウンサーに咎められてたけど、その程度の感覚の日本人多いと思う。
んで、別に間違ってないとおもうんだよな。原爆落とした国の基準に従うのもどうかと コロナ禍が終わって外国旅行に行くときはクラウドに上げないで外付けハードディスクとかUSBメモリに入れといたほうがいいな
でもその中も見られたらどうしたらいいのかな? >>384 それは普通にアウトだと思うけど
あと尻じゃなくて知りだからマジで最初何のことかと
ただそれは児ぽ的にアウトっていうよりもデリカシーがないって感じでしょ
子供のおならシーン動画とかを結婚式にさらしたら、児ぽじゃないけどデリカシーはゴミでしょ
あとそんなことしていいって感覚のやつはさすがにいないよ
だからアナウンサーも咎めてるし、
それに児ぽの話としてはあまりにも不適切だろ、それはデリカシーの問題 >>380 そりゃあガチの犯罪をしっかり検出してくれるならいいけど
どう考えても誤BAN続出でしょ
それとショタコンもしねよ、女か?日本ってジャニーズジュニアとかを筆頭に
むしろショタコンババアどものほうが批判されてるけどそれこそ自覚してくれガチでキモいから
ロリコン批判してショタコンはいいとかいってたバカな日本の女が昔ぼろ糞にたたかれてたけど
こういう考えのゴミ女が多くて嫌になるよ
子供へのセクハラ行為も女なら許されるとか本気で言ってるのいるし
ロリコンもショタコンも、児童への性犯罪は厳罰化するべき、日本のショタコンババアどもはあまりにも犯罪性に無頓着すrぎる
すでに明確な犯罪児ぽの通報システムとかなら賛成だけど、
二次元系とか特に法的には問題ない(個人的な意見は置いといて)まで勝手に通報するシステムなら反対
ただ児ぽとかの厳罰化とかならいいと思うけどね
っても一番児ぽ犯罪が多いのってたしかアメリカだろ?人口も多いからだけどさあ それと、
ロリペド「Androidにするわ」「プライバシーガー」
どこにこんな意見があるんだよ
アップル信者ってこういうことしてアンドロイド下げしてくるから嫌い
アップル嫌いの人の99パーセントはアップル信者が気持ち悪いのが原因だわ
iphoneっていまだにだれが使ってるんだよ、2,3年前くらいに性能あがらないのに値段だけあがりまくってから
二度と使わないって決めたけど、いまだに使ってるやついるのか?店頭でもろくにおかなくなってるけど
まあアップル信者は気持ち悪いわ、
ぶっちゃけあいつらこそ性犯罪者率たかいし、アップル使用者って底辺層が多いんだろ?
児ぽ系の性犯罪も底辺層に多いし、アップル信者が主に児ぽ系の性犯罪加害者なんじゃねえの?
こっちだって言いたくなるわ 性犯罪者まみれのアップルユーザーを監視するためには確かにいいかもねwww iPhoneが売れなくなるだけじゃん
バカじゃね? 子供の発疹やら湿疹やら怪我やらをカメラで撮影してiPhoneの画像フォルダに保存したら、
児童ポルノやら児童虐待なんかの画像とAIに判定されて、警察に通報されて家にお巡りさんが家宅捜索にでもやって来るの?
クソみたいな要らん事をするな やめろ、Androidユーザーがそういう人に思われるじゃねーかw これやましい事ない奴なんも困らなくね?
誤認だとアップルから金ふんだくれるでしょ Dropboxにトーマス殺人事件の被害者の写真保存してしまったら消えてたな 人とゴリラは判別出来るようになったん?
外人は日本人の大人と子供を判別出来ないが大丈夫か? 検閲だけじゃなくて余計な画像処理とか通信があるのが嫌だ
電池の無駄 >>2
外人から見たら
例外はあれど日本人女性は
総じて幼く見えるらしいからアウトだろ 自分の子の画像削除されたらどうすん?
戻すのにAIでなくアップル社員が目視で確認とかいやなんだけど? アップル「ついでに個人情報もしっかり覗きますよ、情報は貰いますよ^^」
間違いない
逆にしなかったらおかしいレベル 宮沢りえのヘアヌード写真集も今はアウトなんだっけ? 大人びた女の子、幼く見える成人女性の区別がつくのかな 本気で大事なファイルなら外付けHDDにでも保管しとけばいいだろ
外に持ち出すもんにやばい画像入れとくなよ こんなプライバシーよ侵害許していいのか?
アメリカ人はデモか裁判起こせよ そもそも画像フォルダやiCloudを見る事自体ダメだろ
これまじならiPhoneやめるわ >>39
AIでも勝手に中をスキャンしてAIの誤判定で関係ない写真晒される可能性 >>414
iCloudだけで画像フォルダは見ない
クラウド監視ならGoogleもMicrosoftもやってる
どこへ行くの? >>416
画像フォルダの画像はiCloudに保存されてるだろ 自分の子供の写真も危うい時代になったか
検閲の無いスタンダロンカメラ買って保存しとけってか、退化してどーすんねん googleだって使用するときデータ全部よこせみたいなの迫るから、
プライバシーもへったくれもないぞ。 >>418
自動アップロードを絶対やめたくないならともかく
本体とiCloudを切り分けることはできるでしょ >>420
日本の法律でも自動の裸は所持しちゃダメだから
個人のHDDだろうがやめた方がいい これさ、エロサイトのサムネイルにも反応したらエロサイト行ったらAUTOになるよね 監視されない安全なコンテナボックスアプリが出てくるかもな 判断にはRー9Cウォーヘッドみたいに
四肢切断された性犯罪者が生体コンピュータとして接続されています >>114
だれが言ったん?アポーが?
アポーの公式アナウンス信用すんのおまえ? 音声か文字データなら所持しても今のところ大丈夫だろうから、妄想力を働かせればよい
アスキーアートは、判断する人によっては画像とみなされて逮捕されるかもな
画像も16×9くらいの低解像度ならセーフかもしれないが責任は持てない 今はiPhoneだけとのことだけど、Appleでこの機能が導入されるということは今後GoogleとMicrosoftのPC端末でも似たような機能が導入されるかもしれんな >>407
別にすでに覗かれてんだから今更気にするなよ そう言えば昔、ハリウッドに集められた子が泣いてたことがあった。
何で泣いてるのか教師っぽい人に聞いたら映画の撮影の準備だと言う。
周辺には何もなく誰もいなかったので確認してくると言って立ち去った。
似顔絵を描いてハリウッド映画関係者に聞くとその男は殺し屋だと言う。
警察に通報して現場に行ったが誰もいなかった。
警察はすぐに解散したが、僕は探し続けた。
そして、地下に閉じ込められている子供たちを発見した。
男がどこに行ったか聞くと、首をつっていた。自分で首を吊ったそうだ。
僕は警察官から預かった無線機で連絡を取った。 >>434
架空のキャラクターの人権侵害だからアウト 何年か前、犯罪者のiPhoneのロック解除をFBIから要請されて頑なに拒否してたのに、今度は勝手に見ますよ〜通報しますよ〜ってバカにしてんのか いやいやいやいや
児童虐待はもちろんどうにかしたいけど、これスマホで監視してますってばらしてるじゃん(笑) >>400
自分の嫁や子供の画像他人に見られてなんとも思わないならそうだな 誤BANでデータ消失とかオンラインでは良く聞くしAI任せは怖いな
人に覗かれるのはもっと嫌だけど >>389
海外だとアウトに入るよ
アニメとかもモザイクかかる
アップルは外資系だからそういうところまで監視すると思う 加工された物も検出するって書いてあるし
AIは緩い判定で裸と認定するって事だから薄着でも検出されて人間チェック入るね
で、ちょっとでも犯罪絡みの画像とかだと警察から著に事情聴取の呼び出しとか来る時代 自分の写真撮ったらポルノだーって判定されて通報されるってことか
ポルノ扱いとかセクハラだろ 相撲の画像置いといたら裸の乳児判定される可能性もあるのか かつてジュニアアイドルと撮ったツーショットもアウトなん? >>453
アウトかどうか、画像を貼ってもらわないとなんとも言えんな >>16
いきつけのスパの男湯に幼女と一緒に入ってきた父親がいたんだが
こういうので見ちゃダメって認識になってしまって目のやり場に困ったわ。
そういうのアメリカじゃ考えられんだろうな AIの学習の過程で、AIが法律を犯している。
ロリコン画像を探し回るAIなんて、存在自体が違法。
学習させたAppleは、ロリコン画像を収集したから違法。 >>458
ロリ以外の画像も見られるけどなw
まぁお前みたいに彼女もセフレも居ない奴には関係ない話だよw 今androidに変える奴は彼女が居る奴
iPhoneを使い続ける奴はオタク ファミリーヌード写真を撮り続けてる家族とか、ヌーディスト村とかの旅行写真となどうなるの?
自分の娘の水樹写真とか。 >>464
撮るのを止めればいいんじゃね?
そもそも何で子供の裸の写真撮るかといったら親のエゴ、虐待だろ >>464
どうもならないよ
普通に児ポ扱いされてAppleに審査される
問題ないと思うやつは異議申し立てをしろってさ ヌーデイストなんて子供が成人してから自分の意志でやらせればいいのに、一時期やたらと子供を参加させていた
そして子供メインの映像画像を売りまくっていた
あんなの虐待以外なにものでもない、カルト宗教と同じ 昔見たニュースでソースが見つからないが
GoogleDriveに保存されてたロリ画像で逮捕者出てなかった? >>470
それ言ってる奴居るがソースが無い以上信用出来んな
せめて何年前くらいか教えてくれ 尻に向かって「アップルへ個人情報を送らないでください」って言うと「それは無理です」って回答される 今まではクラウドに違法ポルノ持ってたら5アイズの国に入国出来ないけど、これからはビッグテックから逃げてコソコソしてるやつもお断りだ
反ビッグテック的な、プライバシー保護を生命線にしてるホラ吹き隙間ビジネスが嫌いだったからそういうのも潰してくれると嬉しい これからiPhone使う奴は独身二次元オタクだけ
家族や彼女が居る奴は写真を抜かれたくないからな 別にやましい写真保存するつもりが無ければ普通に使うだろw
てか泥もどうせ追従する >>479
写り込んだりAIの誤検知だったりで面倒事になる可能性はあるぞ >>479
まぁ童貞のお前はなw
普通彼女の写真とか見られたくないし、当然そういう写真とか撮ったりすることもないこともないしな
童貞のお前には全く関係ない話だけどもw いよいよ来たな
iPhoneごとぶっ壊さないとダメか >>7
>>17
自分が大人になってから、親が撮った自分の子どもの頃の写真アルバムを見たとき、
全裸の自分が写っていたのはとてもショックだった。撮らないでほしい。
なので、厳しくしたほうがいいとは思います。
ですが、スマホの中の写真を勝手に検閲されるのは怖いですね。誤認も怖い…
欧米の価値観で判断されるので、二次元も対象になりそうな点は心配です。
R-18内容で無いものも対象になるリスクがあるのも怖い…
二次元で該当しそうな物は、自動アップロードなどがオフになっていることを確認した上で、
パソコンや外付けストレージに保存することをおすすめします。
そういったデータをクラウドなどにアップロードする際は、7-zipなどで暗号化必須ですね。
ちなみに、実在している人を精巧な3DCGや絵で表現して逮捕された人は、日本でもいます。 >>293
撮るのもダウンロードも絶対に避けたほうが良いですよね。
WaybackMachineでアーカイブするという手もありますが…
>>294
それが現状ですよね…日本ではネット上で見るだけなら合法です。
ただし、国によっては検索しただけで捕まるらしいですよ。
http://fate.5ch.net/test/read.cgi/worldskb/1625880441
>>298
アカウント消えたら困るようなサービスでは扱わない方が良いですね。
少なくとも7-zipでパスワード付きの暗号化ファイルにしてから送信すべき。 次iPhone使ってみようかなと思ってたけどやめるわ iCloudって前もアメリカの有名セレブが画像抜かれまくったりしてたしそもそもが欠陥品やろ これ未成年の端末もチェックしてるから、apple社員は幼児誘拐し放題やな
性犯罪はappleから >>443
なおバイデンと民主党を信仰しない共和党信者は犯罪者扱いで逮捕する模様 そもそも、iPhoneって画面ロックを解除してしまえばアプリを使い放題という点では、プライバシーもない。
Androidなら、アプリロックをするアプリを入れれば一つ一つのアプリごとにパスワード入力を義務付けることができる。 つぼみもアウトかと思ったが最近のつぼみ老化激しくて泣いた 中身検閲するって?気が狂ってるとは思わないのかお前ら 【スマホやタブレット、パソコンも共通】
・該当すると少しでも思う画像は撮ったりダウンロードしない。
・二次元の画像でもR18物や、肌の露出が多いものなどはスマホやタブレットに保存しない。
・Googleフォトやクラウドなどの自動アップロード機能は切る
【パソコン】
・パソコンで二次元のR18物や肌の露出が多い物を管理する際は、Onedriveなどでうっかり
自動アップロードする場合があるので、それらがオフになっていることを確認する。
・Onedriveなどのアップロードするソフトはアンインストールする。
・クラウドへのアップロードはブラウザのシークレットモードのみで行う。
・バックアップも含めて、アップロードや送信する際は、7-zipでパスワード認証付きの7z形式にする。 ■ このスレッドは過去ログ倉庫に格納されています