You signed in with another tab or window. Reload to refresh your session. You signed out in another tab or window. Reload to refresh your session. You switched accounts on another tab or window. Reload to refresh your session. Dismiss alert
はじめに 最近、ニュース記事などで目にすることが多くなった「C2PA」という用語、みなさんご存じでしょうか? 正式には「Coalition for Content Provenance and Authenticity」と言って、コンテンツの出所・来歴の認証に関する技術標準を策定している標準化団体の略称です ※1。日本語に訳すのは少々難しいのですが、C2PA 創設メンバーの 1 社であるマイクロソフトは「コンテンツの出所と信ぴょう性に関する連合」※2、アドビは「コンテンツ来歴および信頼性のための標準化団体」※3 と表現しています。 この C2PA は、2021 年にアドビ、Arm、インテル、マイクロソフト、Truepic などが中心となって創設され、デジタルコンテンツの生成元や変更履歴を証明できるメタデータを付与することで、ディープフェイクや偽情報の拡散を防ぐ技術の規格(仕様)化を行ってい
Sora Creating video from text Sora is an AI model that can create realistic and imaginative scenes from text instructions. Read technical report We’re teaching AI to understand and simulate the physical world in motion, with the goal of training models that help people solve problems that require real-world interaction. Introducing Sora, our text-to-video model. Sora can generate videos up to a mi
もう全部OpenAIでいいんじゃないかな はじめに 月間技術革新です。 ということで、昨日OpenAIから発表された新しい動画生成AI「Sora」が非常に話題となっていますね。 圧倒的な一貫性の保持と1分間に及ぶ長時間動画が生成可能という事で、現状の動画生成技術を圧倒的に凌駕する性能を持っているようです。 在野エンジニアの小手先テクニックなど一笑に付すような圧倒的性能を Soraの凄さは色んなエンジニアやインフルエンサーがたくさん語っているのでそちらを見てもらうとして、この記事ではSoraを構成する各技術について簡単に解説していければと思います。 Soraの技術構成 論文が公開されているわけではないですが、OpenAIが要素技術の解説ページを公開してくれているため、そのページを参考にしていきます。 原文を見たい方はこちらからどうぞ 全体構成 Soraは以下の技術要素で構成されているとのこと
Our natively multimodal AI model Gemini is capable of reasoning across text, images, audio, video and code. Here are favorite moments with Gemini Learn more and try the model: https://deepmind.google/gemini Explore Gemini: https://goo.gle/how-its-made-gemini For the purposes of this demo, latency has been reduced and Gemini outputs have been shortened for brevity. Subscribe to our Channel: h
はじめに 11月も終わり、今年も残るところあと一か月となりました。 今年ももう終わるから今年中に成果を上げとけ!と言わんばかりに最近は新技術の登場が多いです。 今回取り上げるのも11月最後の大砲として出てきた新技術、その名もAnimate Anyone Animate Anyoneとはなんぞや 文字で説明するより見たほうが早い 凄くざっくり説明すると、一枚の絵と動きをボーン動画として入力すると、入力した絵がボーン動画と同じ動きをしてくれるよ!というもの。 似たようなものは今までもReferenceOnly × openpose × animatediffとかで出来ましたが、特筆すべきはその精度。 動画生成の大敵であるちらつきは一切なく、入力画像にかなり忠実な動画を生成しています。 さてこの技術、動画生成にずっと注目している自分としてはいますぐにでも弄り倒したいのですが、残念ながらコードとモ
Animate Anyone: Consistent and Controllable Image-to-Video Synthesis for Character Animation Character Animation aims to generating character videos from still images through driving signals. Currently, diffusion models have become the mainstream in visual generation research, owing to their robust generative capabilities. However, challenges persist in the realm of image-to-video, especially in c
この記事は、「AnimateDiffをComfyUI環境で実現する。簡単ショートムービーを作る」に続く、KosinkadinkさんのComfyUI-AnimateDiff-Evolved(AnimateDiff for ComfyUI)を使った、AnimateDiffを使ったショートムービー制作のやり方の紹介です。今回は、ControlNetを使うやり方を紹介します。ControlNetと組み合わせることで、制御できることの幅が一気に広がります。 AnimateDiff for ComfyUIは、ControlNetに対応しています。ただし、使い方に少し癖があり、公式ページではあまり詳しく解説が行われていないため、引っかかりやすい状態になっています。この記事は、公式ページを補完する目的で書いています。 Control Net付きのサンプルワークフロー サンプルのワークフローを含んだ画像がい
この動画を見つけた発端は、大好きな2コマ漫画作家である犬犬さん(@inu_eat_inu)のTwitterでした。子育ての面白さや大変さをコミカルな2コマ漫画で配信してくれる犬犬さんが、この動画の企画に関与しているというツイート。最初はクスリと笑いながら軽い気持ちで見た動画でしたが、だんだんと重大なことに気づき始めました。 広告戦略とクリエイターの役割が、遂に大きく転換している。 既に色々な研究者やマーケッターの皆さんが提案し、提唱してきたことなので今更感はありますが、日本の広告の始祖であり牽引者たるサントリーがこの動画を公開したことで、遅ればせながら私もガツンと気付かさました。このnoteでは私なりの気づきをまとめてみます。 偉大な広告企業サントリーとキラキラ広告サントリーといえば日本の広告の歴史を作ってきた企業であり、広告によって日本の食文化を開拓し、日本人を啓発してきた会社であること
動画のタイトル: Colabo弁護団からの訴状が来ました 動画の URL: https://www.youtube.com/watch?v=NkXLb8Bw9q8 動画のタイトル: コラボ戦記第二部「ナニカグループの闇」 動画の URL: https://www.youtube.com/watch?v=zHwcdVcZQMA 削除の申請者: のりこえねっとTube 消された動画の台本(ほぼ動画) 弁護団に確認の上、Youtubeに異議申し立て申請を行い受理されました。おそらく、相手方が法的措置を行わなければ復活するものかと思います。しかし、そもそもこの申し立ては不当なものであると考えますので、相手方のりこえねっと連絡先に以下のメールを送信しました。 今回の申立てについては、著作権法上認められた引用が著作権侵害であるとして削除を申し立てた不当なものであると考えています。2022年12月19日
1.はじめに 今までのFaceSwapは、個別に学習プロセスが必要なため処理に時間がかかるのが難点でした。今回ご紹介するのは、個別の学習プロセス無しでFaceSwapを実現するSberSwapという技術です。 2.SberSwapとは? 下記の図は、SberSwapのモデル図でAEI-Netと呼ばれており、3つの部分で構成されています。 1つ目がIdentity Encoderで、画像XsからベクトルZidを求めます。2つ目がMulti-level Attributes Encoderdで、U-Netと同様な構造を持ち画像Xtから特徴Zattを取り出します。そして、3つ目がAAD Generatorで、これらの情報から目的とする画像を生成します。 3.コード コードはGoogle Colabで動かす形にしてGithubに上げてありますので、それに沿って説明して行きます。自分で動かしてみたい
TwitterのDMで動画保存する方法をiPhone・Android・PC別に解説します。各々少しずつ方法が異なりますのでご注意下さい。スマホではTwiDropperとDropboxというアプリでどちらも動画保存が可能です。音声動画保存の際の注意点も触れます。 TwitterのDMの動画は保存可能 TwitterのDMで送られた動画も音声も保存可能です。通常、Twitterのタイムラインに表示される投稿にはリンクが付いています。 このリンクををコピーし、アプリやブラウザ上のソフトを用いて動画へ変換することで、タイムライン上の動画は保存することができます。 しかし、DMのメッセージにはリンクが付いていません。それではいったいどのようにして保存すればよいのでしょうか。 TwitterのDM動画の保存はアプリやブラウザツールで可能 TwitterのDM動画の場合は、リンクが付いていないことが多く
対応OS: Windows (7/)10/11(64bit), macOS 10.12 以降, Linux バージョン:23.09.29(2023/09/29)価格:無料 オープンソースで Windows/Mac/Linux のクロスプラットフォームで動作するフリーの動画編集ソフトです。 タイムラインを利用して動画の切り出し、結合、音楽ファイルの合成、画像ファイルを組み合わせたフォトムービーの作成が可能です。 ぼかし、色温度の調整、ホワイトバランス、セピア調、レトロ(ほこり、傷、映写機、粒子)、クロマキー、フェードイン/フェードアウトといったフィルタ/エフェクトにも対応。 4K動画をサポートし、出力フォーマットは160種類以上をサポートしています。 海外製ですが、標準で日本語に対応しています。
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
処理を実行中です
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く