フェイク動画サイト。 FakeAppのダウンロード、使い方(Windows, Mac, iPhone, Android)

[ディープフェイク]簡単にフェイク動画作成ができるWebアプリを作ってみた[DeepFaces/FaceSwap]

フェイク動画サイト

FakeAppオフィシャルサイトは閉鎖中!? FakeAppが話題になったのは去年2018年のこと。 オフィシャルサイトが閉鎖になったというニュースも出ています。 現在見つかるのは、ミラーサイトだけ。 itmedia. html FakeAppスマホ版? iPhone用、Android用のダウンロードは? iPhone用、Android用などのFakeAppも見つかりますが、どうも違うソフトみたいです。 ちょっと怪しい感じ。 あまり期待せず、壊れてもいいスマホで試してみましょう。 FakeAppの代替ソフト、DeepFaceLabは現役! FakeAppの代わりになりそうなソフトが「DeepFaceLab」、こちらはオフィシャルサイトも現役。 ソースコードが普通にダウンロードできます。 こちらも素人向けではなく、ソフト開発ができる人向け。 高性能パソコンと高級グラフィックカードが必要なのは、FakeAppと同じ。 CUDAが得意、任せなさい!というレベルの人向けです。

次の

[ディープフェイク]簡単にフェイク動画作成ができるWebアプリを作ってみた[DeepFaces/FaceSwap]

フェイク動画サイト

NPO法人「」(FIJ)が12月5日、インターネット上のフェイクをめぐるセミナーを東京都内で開いた。 セミナーでは世界中で問題視されている「ディープフェイク」がひとつのテーマとして取り上げられ、桜美林大学教授の平和博さんがその現状を語った。 平さんによると、そもそも「ディープフェイク」はハンドルネーム「deepfakes」が、2017年の秋口にAIを使った動画を掲示板「Reddit」にアップしていたことが発端とされている。 エマ・ワトソンさんや、メイジー・ウィリアムズさんなどの有名女優の顔だけを、既存のポルノ動画に貼り付けたものを作成。 共有していた。 さらに2018年に入ると別のユーザーが「FakeApp」というツールを「Reddit」で公開。 こうしたツールを用いたフェイク動画がポルノ動画サイトを通じ、一気に拡散したという。 日本人女優やアイドルも被害に その後、オープンソースのサービスを経由し、「ディープフェイク」のツール自体もはネット上に広がったという。 オンライン上の有料サービスも出現。 1時間あたり2ドルほどの利用料で、「顔を丸ごと交換するのに4時間」で済むようなサイトも存在する。 「お手軽に顔交換ができるようになっている」(平さん)のが現状だ。 実際、日本人女優やアイドルが被害に遭っているケースもポルノ動画のサイトでは散見される。 BuzzFeed Newsが確認しただけでも10個以上は存在し、多いものでは300万回以上再生されているものもある。 サイバーセキュリティ会社「」の調査(2019年10月)によると、過去7か月で1万4678のディープフェイク動画が確認された。 1年で倍増しているといい、その96%がポルノ動画だった。 ディープフェイクに特化した上位4つのポルノサイトでは、数百人の女性有名人のフェイク動画が、計1億3400万回以上も再生されているという。 平さんは「一部では一般人へのリベンジポルノの手法としても使われている。 ディープフェイクは、女性に対する人権侵害の問題になっている」と語る。 政治的利用への懸念も しかし、すでに「実際に攻撃も起きている」と平さんは言う。 インドでは政権に対して批判的な女性ジャーナリストがフェイクのポルノ動画を拡散された。 アメリカでは、ナンシー・ペロシ下院議員議長の話している動画の再生速度を落とし、酔っ払っているように見せて拡散させるというケースもあった。 また、アフリカのでは「ディープフェイク疑惑」がクーデター未遂につながり、でも閣僚の「セックス動画」をめぐる同様の疑惑が政治的混乱を生み出しているという指摘もある。 法規制をめぐる議論もある。 アメリカ・バージニア州ではディープフェイクによるリベンジポルノがで禁じられた。 カリフォルニア州でもポルノに関する規制のほか、選挙期間における政治的なディープフェイクの作成などを違法とするができたばかりだ。 一方で、こうした法規制が「表現の自由」を脅かすのではないか、という指摘も上がっている。 平さんは「情報の秩序がなくなっているなかで、メディアがもう一度信頼を取り戻し、その秩序を作り直すという取り組みが非常に重要なのではないかと思っています」と語った。

次の

「Xpression」の使い方、iPhoneディープフェイク動画アプリで超簡単、有名人を自由に喋らせる!?

フェイク動画サイト

売れっ子から懐かしのスターまで、芸能人が驚きの近況を報告する番組「じっくり聞いタロウ~スター近況 秘 報告」(毎週木曜深夜0時12分放送)。 1月30日(木)の放送では、最新アイコラ動画「ディープフェイク」の現状を大暴露! アイコラとは、アイドルなどの顔写真を別人の体に合成した写真。 これは肖像権侵害に当たる許されない犯罪行為だが、桜美林大学の平和博教授によると、アイコラが人工知能AIの発達によりとんでもない進化を遂げているという。 それがアイコラの動画版と言える「ディープフェイク」。 これまでのアイコラは1枚の写真に対し写真1枚を加工するのに対し、ディープフェイクはさまざまなパターンの顔写真を約100枚以上用意。 そこから人工知能で表情のパターンを作成してAVなどのエッチな動画と合成すると、あたかもその芸能人が出演しているかのようなフェイクAV動画が作れてしまうというのです。 近年、このディープフェイクの被害に遭う芸能人やハリウッド女優が急増しているとか。 「SNSなんかでパッと流れてきて、それをチラッと見るくらいだと分からないかもしれない」と平教授。 さらに、このディープフェイクは年々爆発的な進化を遂げ、その作成方法にも変化が。 以前は数百枚の顔を読み込ませていたが、人工知能の進歩により最新のものだと顔写真1枚でディープフェイクが作成できてしまうという研究もあるのだそう。 また、ディープフェイクの悪用は芸能人だけでなく、一般人も犯罪に巻き込まれるケースが。 別れた恋人へ仕返しするリベンジポルノ。 このディープフェイクを使えば、写真だけで存在しない嘘のエッチ動画を作れてしまい、フェイク動画で相手を脅迫するという事件が起きる可能性もあるという。 さらに、人工知能の発達により人の声を元にして言ってもいないことをしゃべらせる「声のディープフェイク」も実現可能に。 実際にヨーロッパでは親会社の社長の声で子会社の社長に電話をかけてお金を振り込ませるという被害も起きているとか。 そんなディープフェイクを見破る方法はあるのか? 「貼り付けた顔は、当初はまばたきまでは再現できなかったので、目は開きっぱなしという不自然さがあったんですけど、進化してくると貼り付けた顔でもまばたきする」そうだが、鼻の向きが若干ズレていることがあるという。 また現在は、ディープフェイクをチェックするAIソフトも開発されているとか。 何はともあれ、みなさんもディープフェイクの犯罪に巻き込まれないようにご注意を! この放送は現在で配信中!.

次の