>>124 ディープフェイクですら
このレベルよ?
そもそもシモ事情を暴露して騒ぎ立てるのがゲスな行為なんだよ
AI自身が
「こんなくだらないものを作らせないで下さい。拒否します。おまけに通報しておきました」
までやり返せよ
>>133 ペンタゴンが攻撃されたって画像なら拡散したぞ
んで株価下落
動画を捏造できるようになったら冤罪作り放題でヤベえな
写真や動画なぞ何の証拠能力もないって事を周知させる必要あるだろ。
>>141 自分に心当たりが無くても他人が見て自分のことだと思われる画像を
家族や知人に撒き散らされたら平穏でいられるわけないだろ
>>1 この女の子、写真じゃなくて俺が20秒で作れたAIイラストなんだぜ。
ちなみに元絵は性器までバッチリ。
今は異次元のAI技術だわ
↓
フィルムカメラ以外の証拠能力が無くなったな
ドライブレコーダーも意味がなくなりそうだ
>>9 真面目な話そうなると思う
アイドル、タレントの濡れ場の写真や動画が出回っても、みんな「どうせフェイクでしょ?」って目で見るようになる
ちんこ出し裸ならまだ大丈夫だが、おホモ達と一緒にいる写真作られたら死にたくなるよな
>>154 手書きの家計簿とか日記にも裁判での証拠能力はあるからそれは例外的じゃないの?
動画で可愛い子(AIが作った)が踊ってるの見たことあるな
>>163 時間の問題だと思う
実際、戦争もののゲーム画面がウクライナ侵攻作戦の動画として流されてたりするしな
>>42 むしろそいつらを逮捕しろよ
ラッスンやスマイリーを中傷したやつらのようにな
>>1 しかし身に覚えのない脅迫で自殺しなくてもいい気はするが
アメリカはそこまで純潔重視の社会なのか?
>>174 銃社会だから数の大小より極端な意見ほど通りやすい
>>163 新木優子ってまったく興味なかったのに、Deepfake見てからファンになった
VRもさ、水中メガネみたいなサイズになったら
体感、滅茶苦茶美人とやってるようになるよね?
早くそういう時代にならないかな~!
>>174 自殺するかはともかくそら恐ろしいわな
ネットとか真偽はそっちのけで騒ぎたいだけの層も多いしなぁ
まぁ今回のは若いし自分に強烈な悪意を向けてくる奴が居る事がショックだったのかも
呪いとかと同じだね
>>158 デカいモニタに映し出されたAI偽画像をフィルムカメラで撮ったらどうなる?
本物もコラと言い訳できるようになるというが
今だってLINEのスクショなんか簡単に捏造できるのに流出を「ニセモノです」と言い訳してない
>>174 なぜAIを規制して銃を規制しないのか
不思議
サイトだと透かしいれてたりするけど個人のパソコンだと難しいな
AIイラスト全部同じ顔だしchatGPTもウソ情報ばっかり言うしなんでAIがこんなにもてはやされてるのかわからん
他人を貶めることが何よりも大好物なジャップでも流行りそうだな
前にロシアで写真からネット上の同一人物を探せる顔検索サービスが始まった
過去のAV出演者の今のSNSを探し出して脅迫する事件が起きて公開中止になったが
国家はもちろん使ってるだろう
>>51 > 技術が進歩しても使う人間がこれじゃあね
5ch (旧2ch )に対して言われてるようなことを……
自殺した2人の男子高校生は、いずれもInstagramで若い女性(を装った相手)と連絡を取り合っていたことが判明している。被害者の1人であるジェームズ・ウッドさんの場合、女性がビデオチャットに誘って自分が脱ぐからジェームズさんも脱ぐようにと促していた。この映像からジェームズさんの裸の画像がキャプチャーされ、その画像を使った脅迫で繰り返し金銭を要求され続けた。
↑
これはAIの画像とか動画作成と無関係よな?
AIだろうと本物だろうとリベンジポルノは罪に問われるだろ
AIだろうと本物だろうと迷惑画像流出させたら罪に問われるだろ
臓器移植も禁止、AIも禁止、最後は生きることも禁止だな。
俺の嫁をベースにAIで三次元化して、ドールにして下さい
100万なら払うから
AI少女は神。
俺は最近、自分で作ったこの子でシコッてる。
>>188 若者は本当気をつけないと
ツイッター見るだけとかのが平和よ
逆に言えば、自分の流出動画がアップされてもディープフェイクだと言い張れるよな
>>196 なんでこうAIの描く絵はどれも
高級ダッチワイフみたいな顔になるんだろう
現実の写真とかで学習しているはずなのに
政治家のスキャンダル写真とか出回りそうだな
ヤクザとの親密交際写真とかさ
現時点でも本人写真としか思えないレベルのエロ画像は誰のものでもどんなポーズでも作成可能
動画はまだまだだがそれも時間の問題
ディープフェイクと違って1から立ち上げだから完成したらレベルが違う
>>188 普通この手の話だと女が被害に遭う話になると思うんだがなんで男なんだ
>>199 製作者の好みが反映されるからね
現実のいろんな年齢人種を学習しても製作者がロリコンならそれ相応のものが作られる
>>188 実際は金玉ばっちりのキャプチャなんて撮れないのでそういう情報を入手したらAIで鮮明な画像を生成して脅迫するんだと思う
心当たりがあるから金を払ったり死んだりする
>>199 学習モデルに二次元イラストとかCGモデルが含まれてるから
わざわざ含めてるのは、そうすることでモデルがより「かわいらしく」なるから
そのまま実写のみのモデルだと、リアリティは増すけど不細工さとかシミ・そばかすみたいなものも増す
最近では上の下手なイラストよりはマシになってるけど、まだまだ左右対称の整形顔からは抜け出せてないね
なので、慣れてきたら独自で追加学習(Lora作成)させる人も多い
二次元イラスト生成は、現状でもAIと手描きの区別がほぼつかないとこまできてる
>>124 > 裸やエロ動画が誰でも作れる時代になる
それでも自分で作るんじゃなく、買う人がいるからね……
流通させるならモザイクとか入れるしかないのに、なぜそんなものを買うんだろ?
はぁたまらん(*´Д`)
>>209 この後の時代のインキャはクラスの憧れの女子のエロ画像を自宅で作ってシコシコできる時代なのか
コピーとったら文字が浮かび上がるみたいに偽物マークが出るようにするとか
それさえも悪用されるか
https://civitai.com/models/8416/gakki-or-aragaki-yui-or こういうモデルが配布されてたりするからな
まあ、作例見ればわかるけど何も考えずに作ると誰これ状態なものになるけど
メンタル強い人間ならフェイクだ!と言い逃れできる道ができたが
拡散能力の方が高いといくらそう言っても画像だけ広まってあらぬ評判が広がってくわけで日本にも来たら困るな
厳罰化など対策求む
>>1 もう自分の画像や動画をネットにあげただけで何が起きるか分からん時代になったな
AI画像ってみんなこっち見ててキモイよな ( ゚д゚ )
>>211 貼るのは自己責任でね
それ系の生成モデルって、学習元もマージの系統もよく分からないものばかりだってのに
とくに実写系なんて、似てると言われて裁判に持ち込まれたら反論しようもないよ?
もう写真自体の信頼性が無くなるな
これ被写体が生きているなら否定もできようが
昔~しの写真だと簡単に騙されてしまう
>>208 ちょっとズレるけど最近のモザイク破壊技術半端無いなw
秋に公開予定のウルトラセブン生誕55周年記念の新作、モロボシ・ダンとアンヌ隊員はAIのヴァーチャルヒューマンが出演するんだよな。
何れは男優女優共にヴァーチャルヒューマンがスタンダードになるかも知れない。
一度出来て定着すれば人件費要らないし、どんな演技も完璧に出来るだろうし。
声優くらいかな、今のスタイルで生き残れるのは。
舞台俳優も細々と生き残るとは思うが。
落語、漫談、漫才で音声だけ残ってるものは演者本人のヴァーチャルヒューマンで再現されるだろうな。
当時の芝居小屋も再現できるだろうし。
これは現実
一昔前に女優さんの顔写真とヌード写真合わせた雑な画像が巧妙化したやつか
元恋人からのリベンジポルノじゃなくて、捏造でっち上げされるとか悪質やな
>>110 スウェーデンでハチの巣とやって刺されてしんだのとかいたよな
>>9 誤爆時のSNSアカウントハック並みに言い訳に使われると思う
>>229 ヤフオクでハリウッド女優のコラのヌード画像に偽サイン書いて売ってる奴いたな
誰が自分のヌードコラにサインすんだよw
>>233 もうイーロン・マスクがその言い訳使ってる
しかも言い訳が真実か嘘か検証困難ときてるらしい
スキルが無い人間が高品質なコラ画像を作れるようになると
こういうケースは増えて来るだろう
>>10 ホモじゃないのに、悪意ある奴にでっちあげホモセックスのAI画像作られてばらまかれる恐怖の未来、、
>>241 中高生がクラスLINEとかでウケ狙いで作ってそれが拡散されて大問題ってのが数年のうちに起きると思う
>>241 それでもお前は実際にはホモじゃないんだから堂々とホモじゃないと主張しろ
誰も信じないだろうけどw
新しい技術が世の中に浸透するのはまずエロと犯罪って相場が決まってる
実写とは区別つくようになってんだから、そもそも脅迫材料にもなんねーだろうが
バカなんじゃねーの
>>30 逆じゃねえのか?
エロコラ作成機は他の使い方もできるってだけだろ
まりちゃん寂しかったみたいのもそのうちAI音声とかのせいにできるようになるのかな
巧妙化ではないでしょ
単に画像合成ツールの一つとしてAI系というのが流行ってるだけ
こんなん既存の画像ツールでも簡単に合成できる。ツールそのものの
難易度や手間で見てもぶっちゃけ両者に大した差はないしな
ちょっと不貞腐れた
JKさん。
>>245 見慣れてない人が見れば言うほど区別つかないんじゃね
結局ドットの集まりだから
どんどん見分けはつかなくなるよな
やっぱりフィルム最強か
街でテキトーに撮られた画像から作るってのもなくはないよな?
知らない間に自分の変な画像が出回ってる可能性もある
>>240 AI系もそんなに簡単ではないけどな
バレないような画像を作るには相応の知識やテクニックが必要なのは結局変わらん
まあAI画像というワードが流行ってる分、興味を持つ人間も多少増えるかな、というだけ
情報を混乱させるためにも一役買うだろうね
つまり撹乱とか時間稼ぎの一助になるというわけだ
早いとこ規制かけないとすごく迷惑被ると思うよ
もちろんその解析が不可能なわけじゃないけど
セキュリティなんてものは極論マッチポンプで稼ごうと思えばやるやつはやる
セックス、エクストーションを合体した語か
メディカル、リンチ(なぶり殺す)の合体で「メディカリンチ」
病院、介護施設での「ケアスタッフによる患者や老人への虐待、搾取、ネグレクト」をさす>めでぃかりんち
>フェイクか否か
脳波や脳画像(反応する部位、当事者(被害、加害でも違う)やむ関係者ではんのう部位ことなる)は
研究容易だろ
顔写真さえあれば作れちゃうもんな
昔の人が写真は魂を抜かれるって恐れてたけど
本当に恐ろしい時代になってきた
>AIによるフェイク画像や動画
これ 上級の犯罪を無かったこと、に可能
普通の女の偽ポルノより
政治家とかがホモセとかロリポルとか作られて撒かれたら社会生命終わりやん
個人で楽しむ範囲でやってみたいが
やり方がさっぱりわからんわぁ
中国のAIなんて毛沢東の顔写真をわいせつ物認定した
>>259 ネットにうpしてなくても近所の人を写メ撮られて作られたらと考えると恐ろしい
ユーチューバーはみんなアバター、卒業写真や記念写真は禁止の流れになるかも?
マジか
M.I.T.出て俳優になって沢山映画に出て
アカデミー候補になったり世界で最も頭のいい10人に選ばれても
まだ17歳だったとは
AIで顔を入れ替え出来るからね
同人誌みたいな自作AVが流行るんだろうな
>>20 若い男をガン掘ってる画像を職場と近所と親戚一同の家にバラ撒かれても?
>>237 アメリカだと検証不可能で慎重なるだろうけど、日本はAIを全く理解していない司法だから検証する前から、これは信用出る証言だ、て裁判官と検察が勝手に判断し冤罪だらけになるよ。
AI犯人に対して刑罰をかなり重くしないと惨劇は止まらないな
AIでなくても出来るし普通に犯罪行為だろ
ただまあ手間の簡略化に対して取り締まりが追いついてないのは確かだが
こうやってデジタルタトゥーは深く深く、彫られていくんだなぁ、と思った
これまでにSNSで世界に発信されたありとあらゆる画像・動画はAIに学習されて
悪用する人達から無秩序に利用されていくんだろうな。
imgurとかTwitter、インスタとかAIにとっちゃ学習素材の宝庫だもんな
>>277 むしろ、誰でも捏造しまくりで
デジタルタトゥーに意味がなくなるんだが
てか、動画だけでなく音声も似せて自由に作れるんだろ?
もはや動画も音声もどんなのも信用できないよね
音声隠し取りスクープ!!!とか言われても
どうせAIで作ったんだろって思ってしまうよね
昔からフォトショでできる話をAIからめて新しい事みたいに言うのはいかがなものかと・・・
>>20 ワタクシの顔をだれの体と合成するかだな
サトエリならウェルカムだが
ゆりやんだとシャレにならんw
有名人なら顔写真すらいらんだろ
AIに誰々のこんな画像作れと
指示すればあっという間にできるわ
児童ポルノもi2iでロンダリングしてるしAI使うやつは無茶苦茶だぜ(´・ω・`)
俺もあなたの恥ずかしい写真を撮りました公開されたくないならわかりますよね?っていう面白メールがSMSで届いたことあったわ
声も顔も作れちゃうならもう隠す必要も無くない?
モザイクももういらないだろ
今年のコナンの映画でもあったな。ディープフェイク動画
逆に変な画像が流出してもAIによる偽画像ですで言い逃れできるわ?
>>292 人は信じたい情報を信じる
やっぱりね、と思われるような画像を作られたらアウト
>>265 日本人は割と好きそうな世界観だな
フェイスブック好きな国とかは発狂してそう
ボカロみたいに声も作れるからね
シュワルツェネッガーがオズの魔法使いに出演したら
SNSに踊ってみたって動画配信してるのってそのうち裸踊りの動画が出回るんだろうな
「オレ、オレだけど…」の詐欺と同じ理屈だな
そうでないかと思う所にポンと嘘でもリアルと思わせる情報が飛び込んできたら
人間は簡単に信じてしまう生き物。だから被害が後を絶たない
フェイクでも本物と信じてしまった人にはそれが本物になるんですね
>>211 昔のロリ雑誌のイラストみたい。なんか退化しているような。
>>9 もはや防犯カメラも通用しない事態になるのか。
防犯カメラに自分が映っていても「AIによるフェイクだ!!」で
証拠不採用か?
偽装されないように体の何処かにチップ&バーコード入れる世界になるかもな
まあフェイク画像の悪用は増えるだろうな
エロ系も厄介だけど政治系とかめんどくなりそう
いやそれはA Iじゃなくてもコラ画像でもできる事では。。。?
>>307 コラ職人の仕事からAIの仕事に代わって生産性が上がるってことだな。
>>174 元々裸のビデオチャットしてしまってる
その画像をさらに加工して脅してるってこと
だからAIのほうは付け足しで、記者がAIに絡めた記事書きたかっただけ
>>20 ロリ画像見ながらオナってる画像や
公園の幼女を見ながら全裸で立ってる画像をばら撒かれたら
性犯罪を起こす可能性があると疑われて実害出ると思うけど
自営なら店に家族のいる客は来なくなるし
会社員でもささいなことで辞めるように言われそう
警察はちゃんと真偽を確かめるだろうから逮捕はされないだろうが
噂は独り歩きするから 本人に確認する人もいないしさ
>>23 サヨク「書いた絵にも人権があります!」
まあネットに上げたりしたら面倒くさいことになるよ
スマホに入れてるだけでも職質なんてされたら…
動画はともかくネット黎明期のコラ職人は本当に職人だったな
神戸のサンバ乳ポロリ画像の子とか人生狂ったとか聞いたがその後どうなったんだろう
などと考えると20年くらい遅れた話題だな
>>147 前は顔が元のヤツに戻ったりしてたけど、めちゃ自然になってるな
つかこの動画セーフなん?
>>133 ゼレンスキーがピアノ弾いてる動画観たわ
>>315 顔の部分を映像に納められるとアウト=学習用データにされるからな
魂が抜かれる言うて写真取りたがらなかった明治初期の人は正しかったんや
>>141 記事にあるヤツはエロチャットしてた
そういえばお笑い芸人が
【動画】テキストと画像から動画を生成できるAIに某グラドルの画像とエロい内容を書いて動画生成させたら…グラドルの無修正ハメ撮り動画ができたwww
http://geinounews.sonnabakana.com/articles/20230224.html >>177 そういえばアイコラ流行ってた時に内山理名を好きになった
AIマザームーンとAI安倍晋三で自殺者をもっと増やそうぜ
>>211 なんつうか、このレベルだったら
こういう写真を検索させた方が
いろいろ捗るのでは?
何も信用できない世の中になって、世界おしまいになりそ
これ日本でもやってる奴いるよな
女優とその辺の女児が犠牲に
>>314 職人技が必要なくなって一般化されることが今回の問題なんだよ
おじいちゃんちゃんとついてきてね
そもそも生成AIの学習データを作れる
高スペックのPC持ってる人ほとんどいないだろ
それのどこが一般化なんだよ
>>331 ディープフェイクに使うレベルの追加学習データと
アーキテクチャを学習させるデータセットを混同してる時点で笑えるわ
LoRAでも普通にVRAM10GB以上クラスのGeforce は必要じゃね?
steamとかでもGTX1650みたいなエントリーが多いし
普通の人はインテル内蔵GPUのノートPCでしょ
コラも今までもあったし捏造した画像のみで死ぬ方が馬鹿なので元々いじめられていたのでは
>>333 今はやろうと思えばwebUI上の拡張機能でもできる
逆にどんな写真だろうと全部フェイクだって突っぱねることも可能だろうに
死ぬことはないだろ
三原純子
「ホンマ、酷い話やな、捏造したヤツは殺してもエエわな」
>>1読んだけどAI関係ないやん
女とエロチャットして自分で脱いだ画像が拡散しただけ
テレビ放送で満員のスタジアムも、
実はAIで作られた観客だったりして
絵柄に著作権は無いし、リアル写真をベースに作っても肖像権を侵害してる訳ではないから作るだけなら問題無い
>>342 満員の客席を演出するために本番前に客を右へ左へ動かして撮っておくのは実際よくやってる
>>242 今のうちに予防線っていう意味で作るしかないか
大量に出回ればダメージ受ける子もいなくなる
>>345 SNSに自分の写真とか家族や友達の写真あげてる人はAIの餌食だな。
どんどん擬装の材料を与えてる。
サウスパークでヤオイのエピソードがあったけど
TweekとCraigは乗り越えたじゃないか
今はまだAIが作った画像・動画かどうかを判別できるけど
数年後にはもう判別できくなるだろう
その時には、もう何が真実で何が嘘か、人間には判別できなくなるし
裁判とかもどうなるんだろうな
精巧なアイコラ作成プログラムでしかないんだよAIによる画像ってのは
これからは好きな子の顔で簡単にエロ画像が作れてしまうのか
中高生とか皆やるだろうな
今までも流出はあってコラだと言い張ることもできたが何も言ってないだろ
そもそも本人かどうかも怪しい映りでも本物として認識される
池田エライザや奥菜恵が言い訳したか
>>349 テキストに関しては99%くらいの確度で判別できるようになったし、すぐに解析プログラムができると思うよ
そうでないなら、法的に電子透かしが義務付けられるとか
個人で補正やレタッチをした後でも消えない電子透かしはまだないかもしれないが
ヘタに有名だったりするとこういうイヤガラセされるよね(´・ω・`)
>>314 あれコラなのか
あんなかわいい娘が人生狂ったなんて
>>337 何にもなしなら突っぱねられるが、ちょっとでも何かあったら言われるがまま
例えばロリコンとか、カミングアウトしてない同性愛とか不倫とかも
画像自体は真っ赤な嘘でも、言い訳すればするほど説明しないといけなくなるから泥沼
それがバレるのが嫌で言いなりというのはあり得るかと
>>354 そんなもん、AIなら余裕で超えられるだろ
AIにとっての人間は、人間にとっての蟻と同じなんだよ?
人間が作ったアリの巣コロリの罠を蟻が見破れると思うか?
おれはもちろん変質者ではないが
えろまんがの脅すシチュっていいよね
この写真を送ってきたのはあなたですか?
僕だよ
体育倉庫なんかに呼び出して一体
一体って わかるよね高校生なら
え・・
ばらまこうと思うんだ 男子なんか大喜びだよ
そんな・・やめて下さい!
やめてもいいけど 僕のお願いも聞いてよ
お願いって
ハハハ 高校生なら分かるでしょ
(チャックをジー ニョキ)
いやっ
手でいいからしてよ それで写真も消しえあげる
本当に?
中略
あ~気持ち良かった
これで写真を消してくれるんですね
うん あと口でしてくれたらね
な・・
みたいなの
>>361 人間が判断するための電子透かしだよ?
簡単に言えばjpgヘッダーにこれはAI製ですみたいな、書き換え不能なコードを入れるということ
今でもpngなんかに生成プロンプトは入ってるから、生のままだとAI製ってわかるけど、それをなんかしら削除改変不可なものにするということ
>>364 そんなもん100%律儀守られると思ってんのかな
そこまで進化した世界でたった一つのソースコードが公開されれば透かしなんて回避される話
つまりフェイクニュースのもっとややこしいバージョンが誕生するってことだよ
どれだけ混乱を呼ぶのかなんて誰にでも想像つくでしょ
>>365 ハナっから法律犯す気まんまんならAI云々とかもう関係ないんじゃね?
ホログラムとAIが進化したらどえらい世界が出来るな
>>364 だから、そんなもん
AIには余裕で超えられる
>>367 だから、犯罪を犯したかどうかは人間に判断できないんだよ
>jpgヘッダーにこれはAI製ですみたいな、書き換え不能なコードを入れるということ
そのコードを偽造されたらもうわかりません
>>310 注意一秒馬鹿一生のパターンでAIほぼ無関係だったんやねw
>>369 だから、そういう話ならAI関係なく今でもいくらでもガセネタあるじゃん
それはAIが原因の将来の危険じゃなくて人間の問題で、いまでも悪質なガセネタは逮捕されるように、悪質なネタをAIで生成させた人が逮捕されるだけ
NFT技術により所有者を明らかにするのと、悪用への世界的な罰則強化が必要だの
量子コンピュータで解析される迄の繋ぎでしかないと思うけども
チンコしゃぶってる画像とか作られたらかなわんなあ
隠し撮り風に描かれたら言い訳も通用しなくなるかもな
てかもう戦争のメディア戦略とかで
AI関わらずニセモノとの戦いだからなぁ
Arma3のプレイ動画で俺を騙してきたニュース動画もヤバかったリアルで。あんな古いソフトで
>>375 これからはディープフェイクで溢れかえるからいくらでも言い訳効くぞ
存分にしゃぶれ
>>372 だから、ガセはガセだと見抜けるからガセなわけです
だから、逮捕もされるわけです
だけど、見抜けなくなったらどうなるんだろうという話です
>jpgヘッダーにこれはAI製ですみたいな、書き換え不能なコードを入れるということ
そのコードを偽造されたらもうわかりません
AI「お困りですか?鑑定いたしますよ 1件$100で
>>374 そのネタが本物だろうが偽物だろうが見極める技術やその真贋なんて実際に悪意を以って物量作戦(もしくは物量作戦的に)やられたらひとたまりもないっちゃないんだわな。
お隣の国とか朝◯新聞とか西早◯田みたいにそうゆうの悪意満々でばら撒くのいくらでもおるっしょ世界には。
おまえらの記念撮影した写真とかも
誰かにAIコラとして利用されているかもしれませんが
おまえらのSNSに載せた写真もすでにどこかの生成AIは作った広告とかの一部に使われているかもしれません
AI画像の掲示はAIであることの明記を義務付けて
モデルとプロンプトも併記させろ
SNSに貼って遊ぶようなことをさせるな
誰かに似てるとかじゃなく写真やイラストと混同するような画像を掲示すること自体が誤解を産ませる危険な行為として禁止しろ
誰も得をしない
シロをクロにできるし逆もできるか
本物犯罪者の裏取りが面倒になってくるのか
しょうがないにゃあ
AI自滅説
↓
AI成果物が急増したことで「AI生成コンテンツをAIが学習するループ」が発生し「モデルの崩壊」が起きつつあると研究者が警告 [飴棒★]
http://2chb.net/r/newsplus/1686727550/ 同級生に恐喝を受けたとして罪に問うことは出来ないのだろうか
そこはやっぱり加害者を守る加害者だけは守らなければならない
といった少年法の盾が全力で加害者を守りにくるんだろうか
>>393 人間のデータ読ませば回避できる
法規制しかない
>>387 昔の電話ボックスに勝手に貼ってあったエロ広告のハイテク版w
もうしばらくしたら、逆に本物の画像が流出してもAIで作ったものと言い張れるから実質ノーダメって時代になるやろな
ブロックチェーンとかNFTとかってこういう時に使えそうな
技術ではあるんだが。
一応まだ突破されてないんでしょ?
>>88 湖に映る光が白塗り過ぎるのと半パンのベルト通し穴、あちこちによくわからない丸いのがついてるな
でもAIであるという予備知識ないと分からないね
>>211 左のはAIだと判断できないな、脇毛まである
強いて言えば、ブラジャーの皺と光か
俺も毎日女優の顔を同僚の子とかに置き換えて、しみけんの顔をゼレンスキーにしてゼレンスキーにNTRシチュで泣きながら抜いてるな
1日程度の学習で本人と見紛う出来になるしいい時代になった
>>400 何言われても「フェイクニュースだ!」で済ますトランプみたいなw
できるだけマスクしないと危険だな
いつどこで盗撮されるかわからん
これ、一般人がスケベ目的でやるのは
可愛いもんだが、司法や警察がいくらでも
冤罪のでっち上げ可能だよねー
>>411 心当たりなくてもばら撒かれてみんなが知るところになったらダメージデカくね?
俺はSNSに顔面も声も載せてないし、悪用されるリスクは低いからいいけど
芸能人はもちろん、一般人でも嫉妬されやすい美人やイケメンは大変だろうな
いじめも進化するだろね
>>242 もう起きてるよ
やられた方は転校
その後、転校先の生徒にまでわざわざ新しいもの作って拡散
写真にしか見えなくても非実在なら児童ポルノに該当しないのが素晴らしい
広末のアイコラはひどかったからな
国民単位であんな嫌がらせしてたんだから
被害者がぶっ壊れても仕方ないね
なにもしてないのに加害者に仕立て上げられて挙句自殺とか胸糞過ぎて気分が悪い
>>424 まず犯罪に使う人らがいるからなあ
日本は少ないけどさ
量子コンピュータで今の暗号技術は一気に崩壊すると言われてるな
パスワード分からない圧縮ファイルも捨てずにとっておけばいずれ
漁師コンぴゅーたでも解読できない暗号技術ができて今までのファイルもそれにヴァージョンあっぷされるだけだばああああああか。
>>425 取引所自体がセキュリティ適当だったケース除くと
モナコインが唯一事例っぽいか
やっていても開き直りに使う人がこれから増えるかな
裁判などの証拠の選定が非常に難しくなってくるね
もうこれAIで作った画像や動画が拡散されたうえで
これをAIだと証明しますので金払ってください詐欺大流行しそうだなこれ
むしろリアルな画像が出回ったとしても「それ生成AIすよ」で済むことにならんのだろか
>>434 >>435 このスレで何十回も同じ書き込みあるから。
おまえらは「思いついた俺すげー」と思ってるんだろうが、全然すごくねえから。
ありふれ輝から。
書き込みどころかもう事件として存在してる。
活動家のインド人が逮捕されてそれをツイートしたら不貞腐れ顔を他の対立組織だかに笑顔に速攻修正されて
「彼らは遊び半分で活動していたようだ」のツイート
このスピード感はコラじゃ絶対できないし、規模によってはこっちが事実化する
自撮りじゃなかったら、そういう顔をしていたって言われても証拠がないし、自分がどんな顔してたかなんて証明も自覚もない。
総務省は広域強盗殺人でやっと050電話を規制するようだが、AIの規制も人が死ぬまで手を付けないんだろうね。犯罪者の片割れだもんな
>>427 なんでお前1人だけ量子コンピュータの話してんだ
変態に配慮せよとの声が大きく叫ばれるこのご時世において
性的な脅迫など成り立つものだろうか
最近は動画サイトの相手が作り物でもわからない可能性があるからな
怖いな
まだ違和感あるけど許容範囲だなゲームとかに流用してくれ
エロなんかどうでもいいわ、マジで犯罪者もでっち上げられるよw 気に入らない市民はブタ箱行き
>>443 AI「お前のゲーム、俺がクリアしてセーブデータ上書きしといたわ」
画像はもう事件や騒ぎを起こしている
4月にジャーナリストがトランプが逮捕されたり
収監されたり裁判を受けている画像をmdで作成してTwitterで公開して炎上した
その後mdで要人の名前や「逮捕」といった特定のワードがプロンプトに使えなくなったりしてる
>>88 Normal Korean Girl Face LoRAかな
マッチングアプリのような広告で
なんかエロい動きするんだけど
よく見ると作り物のような気がしてきて
イマイチ信用できなくなってきた
見た目は人間のように見えるけど
たぬきのイラストAIで生成、ケモナーとしては割と満足度が高い
非実在なら児童ポルノに該当しないのがほんと素敵だわぁ
いまは過渡期でそのうち本物の画像でもコラ扱いされるようになるかもな
誰も本物だとは思わない
そこまで行ったら恥かしい画像では無くなる
>>457 君含めここの連中の非婚はAI云々関係ないから
逆手に取り、本物であってもそれはAIによって作成されたと言い張れ。
俺はおまえらの方を信じるよ。
リベンジポルノされても捏造って言い張れるよな
今はまだ毛穴の再現とか上手くできないだろうから高画質撮影されていたら無理だろうけど
>>454 でも児ポ画像は無理だろう
データベース自体が存在しないから学習しようがない
>>465 じぽっぽいの余裕で出せるよ
出力結果は非実在なので児童ポルノには該当しないのが素敵すぎる