並び順

ブックマーク数

期間指定

  • から
  • まで

1 - 40 件 / 184件

新着順 人気順

cudaの検索結果1 - 40 件 / 184件

cudaに関するエントリは184件あります。 GPUAINVIDIA などが関連タグです。 人気エントリには 『AMDはなぜ資金面で圧倒的に勝ると思われるIntelを凌駕するCPUを開発できるのでしょうか?』などがあります。
  • AMDはなぜ資金面で圧倒的に勝ると思われるIntelを凌駕するCPUを開発できるのでしょうか?

    回答 (12件中の1件目) 本当のことを言うと、今はIntelこそ資金に欠けてい方なのかもしれません。 当然、IntelとAMDの二社だけを比べるのなら、Intelの方が圧倒的に強いでしょうけど、今の半導体業界はもうそういう簡単なものではなくなっています。 まぁ、今回の第三世代Ryzenで見事なリベンジマッチを果たしたAMDの勝因を一言で言うのなら、スマホ市場の急速発展の追い風に乗ったから、ということなのでしょう。 さて、デスクトップ向けのCPUしか作ってないAMDはスマホ市場とどういった関係があるのでしょう、と思うかもしれませんが、これこそ今の半導体業界の不思議なところです。 ...

      AMDはなぜ資金面で圧倒的に勝ると思われるIntelを凌駕するCPUを開発できるのでしょうか?
    • CPUとGPUのマルチスレッディングの違いについて - arutema47's blog

      "Locality is efficiency, Efficiency is power, Power is performance, Performance is King", Bill Dally マルチスレッディングとは? CPUとGPUのマルチスレッディングの違いをブログにまとめていたけど例によって誰も興味なさそう— arutema47 (@arutema47) 2021年8月16日 つぶやいたら読みたい方が多そうだったので完成させました。 マルチスレッディングとはメモリ遅延を隠蔽しスループットを上げるハードウェアのテクニックです。 ただCPUとGPUで使われ方がかなり異なるため、その違いについて考えてみる記事です。 (SIMDについて並列プログラミングの観点から触れるべきでしたが、時間無いマルチスレッディングに注目するため初版では省きました。) 本記事について 本記事はCPUとG

        CPUとGPUのマルチスレッディングの違いについて - arutema47's blog
      • ChatGPTをオープンソースで再現、わずか1.6GBのGPUメモリですぐに使用でき7.73倍高速なトレーニングが可能

        OpenAIの対話型AI「ChatGPT」は史上最も急速な成長で「月間1億ユーザー」をわずか2カ月で達成するなど、大いに注目を集めています。それに伴い、GoogleがChatGPTのライバルとなる会話型AI「Bard」を発表したり、中国企業が続々とChatGPT風AIを開発していると報道されている一方で、OpenAIはChatGPTのコードを公開していないためChatGPTを効果的に複製することは難しくなっています。AIのディープラーニングトレーニングを最適化するオープンソースプラットフォームのColossal-AIが、ChatGPTトレーニングプロセスをわずか1.6ギガバイトのGPUメモリで7.73倍高速なトレーニングに再現したと告知し、オープンソースで公開しています。 Open-source replication of ChatGPT implementation process!

          ChatGPTをオープンソースで再現、わずか1.6GBのGPUメモリですぐに使用でき7.73倍高速なトレーニングが可能
        • GPUでZIPパスワードを解析する - Qiita

          企業間のファイルのやり取りにZIPファイルの暗号化がされていることが多いのですが、その暗号は意味がなかったり、弱かったり、余計にセキュリティリスクが高くなっています。ZIPの暗号化が使えないことを証明するにはパスワードを解析するのが一番です。 パスワードが解析できるなら、もうあとからパスワードを送る必要はないのです。 用意するもの Windows PC Windows10を使いました。 GPU できる限り早いやつ ノートPCなので、外付けGPUケースにThunderbolt3でGPUを接続しています。 GTX 2080とケースで 10万円ぐらいかかっています。 CUDA Toolkit あらかじめ入れておきましょう。 hashcat hashcatのWindows版で公式サイトからダウンロードしたもので、バージョンが5.1.0の場合は古いので対応していません。 Windows版のJohn

            GPUでZIPパスワードを解析する - Qiita
          • NVIDIAが高精度な画像生成AI「eDiffi」を発表、従来の「Stable diffusion」や「DALL・E2」よりテキストに忠実な画像生成が可能

            大手半導体メーカーでありAI研究にも力を入れているNVIDIAが、新たな画像生成AIである「eDiffi」を発表しました。NVIDIAはeDiffiについて、世界中で話題となっている「Stable Diffusion」やOpenAIの「DALL・E2」といった従来の画像生成AIより入力テキストに忠実な画像を生成できると主張しています。 [2211.01324] eDiffi: Text-to-Image Diffusion Models with an Ensemble of Expert Denoisers https://arxiv.org/abs/2211.01324 eDiff-I: Text-to-Image Diffusion Models with Ensemble of Expert Denoisers https://deepimagination.cc/eDiffi/

              NVIDIAが高精度な画像生成AI「eDiffi」を発表、従来の「Stable diffusion」や「DALL・E2」よりテキストに忠実な画像生成が可能
            • 自宅PCで「rinna」の日本語言語モデルを試用、メモリ32GBあればCPUだけでも動くぞ!【イニシャルB】

                自宅PCで「rinna」の日本語言語モデルを試用、メモリ32GBあればCPUだけでも動くぞ!【イニシャルB】
              • Windows 10プレビューでついにLinuxのGUIアプリが動作。オーディオやGPUも対応

                  Windows 10プレビューでついにLinuxのGUIアプリが動作。オーディオやGPUも対応
                • NVIDIAが日本語対応の対話型AI「Jarvis」を提供開始 基調講演でリアルタイム日本語翻訳のデモも公開「反応は瞬きするより速い」 - ロボスタ ロボスタ - ロボット情報WEBマガジン

                  NVIDIAが開発している対話型AIシステムが「Jarvis」(ジャービス)だ。以前から開発についてはアナウンスされていたが、ついに正式にリリースされた。しかも日本語対応で。 「GTC 2021」のオンライン基調講演でNVIDIAのCEO、ジェンスン フアン氏(Jensen Huang)がこのニュースを紹介するとともに、聞き取り、発話、翻訳などのデモを行った。「Jarvis」はHuang氏が話した言葉を瞬時にテキスト化し、更にはHuang氏が話した英語を日本語にリアルタイム翻訳して見せた。 対話型AIフレームワーク「NVIDIA Jarvis」 NVIDIAは現地時間の4月12日、「NVIDIA Jarvis フレームワーク」の提供を開始したことを発表した。これは最先端のAIトレーニング済みディープラーニング モデルとソフトウェア ツールを活用して、さまざまな業界と分野向けに、対話型AIサ

                    NVIDIAが日本語対応の対話型AI「Jarvis」を提供開始 基調講演でリアルタイム日本語翻訳のデモも公開「反応は瞬きするより速い」 - ロボスタ ロボスタ - ロボット情報WEBマガジン
                  • JSON Canvas

                    An open file format for infinite canvas data. Infinite canvas tools are a way to view and organize information spatially, like a digital whiteboard. Infinite canvases encourage freedom and exploration, and have become a popular interface pattern across many apps. The JSON Canvas format was created to provide longevity, readability, interoperability, and extensibility to data created with infinite

                      JSON Canvas
                    • 【やじうまPC Watch】 「仮想通貨は社会の何の役にも立たない」NVIDIAのCTOが発言

                        【やじうまPC Watch】 「仮想通貨は社会の何の役にも立たない」NVIDIAのCTOが発言
                      • 秒速で10億レコードを処理する話 - KaiGaiの俺メモ

                        これまでのPG-Stromの性能測定といえば、自社保有機材の関係もあり、基本的には1Uラックサーバに1CPU、1GPU、3~4台のNVME-SSDを載せた構成のハードウェアが中心だった。*1 ただソフトウェア的にはマルチGPUやNVME-SSDのストライピングに対応しており、能力的にどこまで伸ばせるのかというのは気になるところである。 そこで、方々に手を尽くして、次のようなベンチマーク環境を整備してみた。 (機材をお貸し頂いたパートナー様には感謝感激雨あられである) 4UサーバのSYS-4029GP-TRTというモデルは、GPUをたくさん乗っけるためにPCIeスイッチを用いてPCIeスロットを分岐している。ちょうど、PCIeスイッチ1個あたり2個のPCIe x16スロットが用意されており、同じPCIeスイッチ配下のデバイス同士であれば、完全にCPUをバイパスしてPeer-to-Peerのデ

                          秒速で10億レコードを処理する話 - KaiGaiの俺メモ
                        • 女性 on Twitter: "M2 も性能上がってない(GPU のクロック増加*コア増加ぐらいで CPU は一切手つけてない)し、 Apple の CPU 部門まじでなんかあったっぽいね。 M2 の製品寿命も 1.5 年だとすれば 3 年間一切性能上がらないと… https://t.co/IvcsjVDcn7"

                          M2 も性能上がってない(GPU のクロック増加*コア増加ぐらいで CPU は一切手つけてない)し、 Apple の CPU 部門まじでなんかあったっぽいね。 M2 の製品寿命も 1.5 年だとすれば 3 年間一切性能上がらないと… https://t.co/IvcsjVDcn7

                            女性 on Twitter: "M2 も性能上がってない(GPU のクロック増加*コア増加ぐらいで CPU は一切手つけてない)し、 Apple の CPU 部門まじでなんかあったっぽいね。 M2 の製品寿命も 1.5 年だとすれば 3 年間一切性能上がらないと… https://t.co/IvcsjVDcn7"
                          • 【2024年版】WSL2+Ubuntu24.04+Docker+GPUでつくる機械学習環境

                            はじめに WSL2(Windows Subsystem for Linux 2)は、Microsoft Windows上でLinuxカーネルを直接実行できるようにする機能です。 この記事ではWSL2環境にDockerを導入しGPUを用いた機械学習環境を構築する手順を紹介します。 構築イメージは以下の図の通りです。NvidiaGPUを搭載したマシンにWSL2環境を構築します。Dockerを用いてコンテナを用意し、CUDAは各コンテナ内のCUDA Toolkitを用いて利用します。 今回開発するPCのスペックは以下の通りです。 Windows 11 Windows version: 22H2 GPU:NVIDIA Geforce RTX 3060 12GB 設定 1. WSL2を有効化 デフォルトではWSL2環境が無効化されている可能性があるので、始めに有効化しておきましょう。 「コントロール

                              【2024年版】WSL2+Ubuntu24.04+Docker+GPUでつくる機械学習環境
                            • 「1Password」が昨年世界で最も顧客数が増えた業務アプリ。テクノロジースタートアップの人気1位の業務アプリは「Google Workspace」。Oktaの調査結果

                              Oktaは業務アプリの利用動向に関する年次調査を発表。1社当たりの業務アプリ数、米国は105、日本は35で、昨年最も顧客数が増えたのは「1Password」などの結果が示された。 アイデンティティ管理サービスを提供するOktaは、1万8000社以上が利用する同社のサービスの利用データなどを基にした業務アプリの利用動向に関する年次調査「Businesses at Work 2024」 の結果を発表しました。 1社当たりの業務アプリ数、米国は105、日本は35 調査結果によると、1社当たりの業務アプリ数は平均で米国が105で調査結果中最大、日本は35と調査結果中最少だとされました。 企業規模別に見ると、従業員2,000人以上の大企業は前年比10%増の231、従業員数2000人未満の中堅・中小企業は、前年比4%増の72と、企業規模によって業務アプリの数に大きな違いがあることが示されました。 昨年

                                「1Password」が昨年世界で最も顧客数が増えた業務アプリ。テクノロジースタートアップの人気1位の業務アプリは「Google Workspace」。Oktaの調査結果
                              • DirectX ❤ Linux - DirectX Developer Blog

                                DirectX is coming to the Windows Subsystem for Linux At //build 2020 we announced that GPU hardware acceleration is coming to the Windows Subsystem for Linux 2 (WSL 2). What is WSL? WSL is an environment in which users can run their Linux applications from the comfort of their Windows PC. If you are a developer working on containerized workload that will be deployed in the cloud inside of Linux co

                                  DirectX ❤ Linux - DirectX Developer Blog
                                • Nintendo Switch 2の詳細スペック判明。CUDAコアは1280基、CPUはArm A78を8コア搭載

                                  Nintendo Switch 2の詳細スペックが判明。GPU内蔵のCUDAコアは1280基、CPUはArm A78を8コア搭載 Nintendo Switch 2についてはGamescom2023にて関係者内でデモ機が披露され、そこでUnreal Engine 5などが動作しているデモが行われたという噂が出るなど、発売に向けて着々と開発が進められているためかここ最近はリーク情報が多く出始めています。 今回はこの中でも今まで明らかにされていたAmpereアーキテクチャーのGPUを搭載すると言う情報に加えて、このGPUに内蔵されるCUDAコア数やCPUのアーキテクチャーとコア数、そして製造プロセスに関する情報が登場しました。 Samsung Foundry 7LPH(8-nanometer improved version) — Revegnus (@Tech_Reve) September

                                    Nintendo Switch 2の詳細スペック判明。CUDAコアは1280基、CPUはArm A78を8コア搭載
                                  • 【西川和久の不定期コラム】 ローカルで画像生成AIや大規模言語モデルを動かしたい!Google ColabからRTX 3070 Ti+GPU Boxへ乗り換え!?

                                      【西川和久の不定期コラム】 ローカルで画像生成AIや大規模言語モデルを動かしたい!Google ColabからRTX 3070 Ti+GPU Boxへ乗り換え!?
                                    • いまどきのVulkan

                                      3DグラフィクスAPI Vulkanの基本と最近のVulkanで使えるようになった機能について解説します これは2021年11月20日に行われた カーネル/VM探検隊 online part4での発表資料です 動画: https://youtu.be/CIfezfwbA3g ソースコード: https://github.com/Fadis/gct/tree/kernelvm-online-4

                                        いまどきのVulkan
                                      • 【特集】 自作GeForce NOW?ゲーミングPCを複数人で共有、ゲームサーバーにする「EASY-GPU-PV」と「Parsec」

                                          【特集】 自作GeForce NOW?ゲーミングPCを複数人で共有、ゲームサーバーにする「EASY-GPU-PV」と「Parsec」
                                        • DockerでのディープラーニングGPU学習環境構築方法 - Qiita

                                          DockerでGPU学習環境構築 背景 ディープラーニングでローカルPCのGPUを使った学習環境を構築した経験のある人は、一度はNVIDIAのドライバやCUDA周りでハマった経験があるのではないでしょうか?そんなバッドノウハウ(怪文章?)をまとめたQiita記事(TensorFlowでGPU学習させるためにCUDA周りではまったときの対処法)に、なんとNVIDIAの中の人(@ksasaki さん)から「Dockerを使えば…人類は幸せになれる(超意訳)」とのコメントをいただきました! 喜び勇んで、NVIDIAのドライバをアップデートしたところ、そこには文鎮と化した起動しないLinuxマシンが…からあげのNVIDIAとの戦いは始まったばかりだ!(戦ってません) DockerでGPU学習環境構築するメリット うまく構築できればという前提で、以下のようなメリットがあります。 様々なフレームワーク

                                            DockerでのディープラーニングGPU学習環境構築方法 - Qiita
                                          • NVIDIA、1パッケージに2ダイの新型GPU「Blackwell」。AI性能は学習4倍、推論30倍に

                                              NVIDIA、1パッケージに2ダイの新型GPU「Blackwell」。AI性能は学習4倍、推論30倍に
                                            • Devcontainer がデバッグ環境構築のハードルを一気に下げるお話

                                              起動確認 いつもの 初期設定 VSCode左下の><をクリック 開発コンテナー構成ファイルを追加 ワークスペースに構成を追加する こちらを選択することでGit上で構成ファイルを管理出来ます。 定義済みのコンテナー構成定義から Node.js & TypeSctipt 導入する、言語などを選択してください。 バージョンを指定してください。 お好きな拡張機能を追加してください。 .devcontainer/devcontainer.jsonに以下の様なファイルが出来上がります。 // For format details, see https://aka.ms/devcontainer.json. For config options, see the // README at: https://github.com/devcontainers/templates/tree/main/src/

                                                Devcontainer がデバッグ環境構築のハードルを一気に下げるお話
                                              • 【西川善司のグラフィックスMANIAC】 ためになる3Dグラフィックスの歴史(6)。AI技術の進化にGPGPUがもてはやされる背景

                                                  【西川善司のグラフィックスMANIAC】 ためになる3Dグラフィックスの歴史(6)。AI技術の進化にGPGPUがもてはやされる背景
                                                • CUDAを一枚の絵にまとめてみた - OPTiM TECH BLOG

                                                  まえがき 初めまして、R&Dチームの宮﨑です。趣味はFPSをやってます。150時間やってますが未だにドンかつを食べられていません。普段は深層学習のベンチマークを取ったりしています。 実はひと昔前からあった深層学習。近年実用性が増して一大ブームとなっています。実用的になった背景の一つとしてGPUを用いた高速化により深層学習の学習及び推論が実用的な時間で実行できるようになったことがあります。NVIDIAから提供されるCUDAを用いるとC言語に拡張を加えた形式でCPU+GPUのヘテロジニアスコンピューティングを記述できます。 CUDAを使用するにはCPU+GPUの環境がどのようなハードウェア構成をしており、その上でCUDAがどのようなシステムを構築しているのかを理解する必要があります。この理解なしに漫然とサンプルコードを真似するだけでは意図通りのパフォーマンスが出なかったり、そもそもAPIの意味

                                                    CUDAを一枚の絵にまとめてみた - OPTiM TECH BLOG
                                                  • 【西川善司のグラフィックスMANIAC】 ためになる3Dグラフィックスの歴史(5)。DirectX 11から12へ。GPGPU概念の誕生

                                                      【西川善司のグラフィックスMANIAC】 ためになる3Dグラフィックスの歴史(5)。DirectX 11から12へ。GPGPU概念の誕生
                                                    • CUDA on WSL 2のすすめ - Qiita

                                                      前置き 個人マシンで3090 Tiが使えるようになり、ウキウキでEfficientNetV2を回してみると…共有マシンの3090よりも遅い。 どうやらWindowsではパフォーマンスが出ないというウワサは本当だったらしい。(他の要素も検証しろ! 「Windowsが許されるのは小学生までだよねー」などとイジられながらも頑なにWindowsで粘ってきたが そろそろ潮時だろうかと考えていると、CUDA on WSL 2がnear-nativeなパフォーマンスで動くと聞こえてきた。 結果、WSL 2+Docker環境で学習を回すと、Windowsネイティブ環境と比べて実行時間が16%短縮された。 導入方法 以下のページで丁寧に解説されています。 補足: CUDAをDockerから使う場合は「3. CUDA Support for WSL 2」の手順は不要です。 罠1 systemctlが使えないと

                                                        CUDA on WSL 2のすすめ - Qiita
                                                      • ビデオ会議のノイズをAIがカット! GPUによる配信支援アプリ「NVIDIA Broadcast 1.2」が公開/部屋の反響音やペット・虫の鳴き声、ビデオノイズも除去。ビデオ会議の品質もアップ

                                                          ビデオ会議のノイズをAIがカット! GPUによる配信支援アプリ「NVIDIA Broadcast 1.2」が公開/部屋の反響音やペット・虫の鳴き声、ビデオノイズも除去。ビデオ会議の品質もアップ
                                                        • 待ってました CUDA on WSL 2 - Qiita

                                                          最新情報 (2022-06-15 時点) エヌビディアの佐々木です。 2020 年 6 月にこの記事を書いて以来、Windows Insider Preview や NVIDIA ドライバの新しいビルドが出たタイミングなどで記事を更新してきましたが、あちこちに注釈が増えて読みづらくなってきたので、今後はこの「最新情報」セクションに新しい情報を集約しようと思います。あと、更新履歴は記事末尾へ送りました。 私が動作を確認したバージョン Windows のビルド: 22621.1 (Windows 11 バージョン 22H2) NVIDIA ドライバ: 512.95 nvidia-smi コマンドの GPU-Util 欄が "N/A" になってしまう問題は解決! 実行した NGC コンテナイメージ nvcr.io/nvidia/tensorflow:22.05-tf2-py3 Docker De

                                                            待ってました CUDA on WSL 2 - Qiita
                                                          • 大規模モデルを支える分散並列学習のしくみ Part1

                                                            はじめに Turing 株式会社のリサーチチームでインターンをしている東京工業大学 B4 横田研究室の藤井(@okoge_kaz)です。 自然言語処理分野における大規模深層学習の重要性は日に日に高まっていますが、GPT-3, GPT-4 などのモデルの学習には膨大な計算コストがかかり、容易に学習できなくなっています。実際、モデルサイズが近年急速に大きくなっていることにより、学習に必要な計算量(FLOPs)は以下のように年々膨大になっています。近年の大規模モデルでは、NVIDIA H100 80GB であっても 1 つの GPU では、モデルをのせることすらできません。 Compute Trends Across Three Eras of Machine Learning より またScaling Laws によると、大規模なモデルは小さいモデルと比較してより優れた性能を発揮するため、自動

                                                              大規模モデルを支える分散並列学習のしくみ Part1
                                                            • AIの力でキレイに ~NVIDIAの超解像ビデオ技術に対応した「VLC media player」が登場/「GeForce RTX 30/40」シリーズでのみ利用可能

                                                                AIの力でキレイに ~NVIDIAの超解像ビデオ技術に対応した「VLC media player」が登場/「GeForce RTX 30/40」シリーズでのみ利用可能
                                                              • Apple A4チップやAMD Ryzenの生みの親であるジム・ケラー氏がNVIDIAのCUDAとx86アーキテクチャを「沼」と呼んで批判

                                                                AMDのAthlonやZenマイクロアーキテクチャ、Apple A4などさまざまなチップの開発に携わったアーキテクトでエンジニアのジム・ケラー氏が、X(旧Twitter)で「NVIDIAのCUDAは沼です」と批判したことが報じられています。 Jim Keller criticizes Nvidia's CUDA, x86 — 'Cuda’s a swamp, not a moat. x86 was a swamp too' | Tom's Hardware https://www.tomshardware.com/tech-industry/artificial-intelligence/jim-keller-criticizes-nvidias-cuda-and-x86-cudas-a-swamp-not-a-moat-x86-was-a-swamp-too ケラー氏の経歴は以下の記事を

                                                                  Apple A4チップやAMD Ryzenの生みの親であるジム・ケラー氏がNVIDIAのCUDAとx86アーキテクチャを「沼」と呼んで批判
                                                                • “ペタ”FLOPSの性能を実現したモンスターGPU「NVIDIA H100」

                                                                    “ペタ”FLOPSの性能を実現したモンスターGPU「NVIDIA H100」
                                                                  • AI分野でのNVIDIA一強状態を崩すためにIntel・Google・富士通・Armなどが参加する業界団体がCUDA対抗のAI開発環境を構築中

                                                                    NVIDIAはAI開発に使われるGPUで大きなシェアを獲得しているほか、ソフトウェア開発および実行環境「CUDA」もAIの開発現場で広く採用されています。そんなNVIDIAの一人勝ち状態に対抗するべく、Intelや富士通、Google、Armなどのテクノロジー企業が参加する業界団体「Unified Acceleration Foundation(UXL Foundation)」がオープンなソフトウェア開発環境の構築を進めています。 UXL Foundation: Unified Acceleration https://uxlfoundation.org/ Unified Acceleration (UXL) Foundation https://www.intel.com/content/www/us/en/developer/articles/news/unified-accelera

                                                                      AI分野でのNVIDIA一強状態を崩すためにIntel・Google・富士通・Armなどが参加する業界団体がCUDA対抗のAI開発環境を構築中
                                                                    • PyTorchでの学習・推論を高速化するコツ集 - Qiita

                                                                      本記事では、NVIDIAから発表されているPyTorchでのディープラーニングを高速化するコツ集を紹介します。 【※NEW】22年6月新記事:スクラム関連の研修・資格のまとめ & おすすめの研修受講方法 本記事について 本記事は、NVIDIAのArun Mallyaさんの発表、 「PyTorch Performance Tuning Guide - Szymon Migacz, NVIDIA」 に、説明やプログラムを追加して、解説します。 本記事のポイントは、Andrej KarpathyがTwitterで呟いている通りとなります。 good quick tutorial on optimizing your PyTorch code ⏲️: https://t.co/7CIDWfrI0J quick summary: pic.twitter.com/6J1SJcWJsl — Andrej

                                                                        PyTorchでの学習・推論を高速化するコツ集 - Qiita
                                                                      • NVIDIAがCUDAを他のハードウェア上で実行することを禁止

                                                                        NVIDIAが、GPU向けのコンピューティングプラットフォームとして提供している「CUDA」のソフトウェア利用許諾契約(EULA)の中で、翻訳レイヤーを通じてNVIDIA以外のハードウェアプラットフォームで実行することを禁止していることがわかりました。もともとこの条項はNVIDIAのサイト上で公開されているオンライン版のEULAには含まれていましたが、インストールしたCUDAのドキュメントにも含まれるようになったとのことです。 License Agreement for NVIDIA Software Development Kits — EULA https://docs.nvidia.com/cuda/eula/index.html Nvidia bans using translation layers for CUDA software — previously the prohi

                                                                          NVIDIAがCUDAを他のハードウェア上で実行することを禁止
                                                                        • 自宅のPCで新型コロナウイルス治療に向けた解析が可能に

                                                                            自宅のPCで新型コロナウイルス治療に向けた解析が可能に
                                                                          • Google Colab で はじめる Waifu Diffusion v1.2|npaka

                                                                            「Waifu Diffusion v1.2」が二次元キャラの画像生成が得意らしいということで試してみました。 ・Diffusers v0.3.0 ・Waifu Diffusion v1.2 【最新版の情報は以下で紹介】 1. Waifu Diffusion v1.2「Waifu Diffusion v1.2」は、「Stable Diffusion」を二次元イラストのデータセットでファインチューニングして作られた画像生成AIです。Danbooruの画像で学習しています。 2. Colabでの実行Colabでの実行手順は、次のとおりです。 (1) 新規のColabのノートブックを開き、メニュー「編集 → ノートブックの設定」で「GPU」を選択。 (2) パッケージのインストール。 # パッケージのインストール !pip install diffusers==0.3.0 transformers

                                                                              Google Colab で はじめる Waifu Diffusion v1.2|npaka
                                                                            • NVIDIA Docker って今どうなってるの? (20.09 版)

                                                                              ※ この記事は以前私が Qiita に書いたものを、現状に合わせて更新したものです。(内容、結構変わりました) ※ 2021/01/08 CUDA Toolkit 11.2 のリリースに伴い、「NVIDIA ドライバのインストール」節を更新しました。 ※ 2020/09/24 CUDA Toolkit 11.1 のリリースに伴い、「NVIDIA ドライバのインストール」節を更新しました。 エヌビディアの佐々木です。 この記事では、Docker 等のコンテナで GPU を利用するための「NVIDIA Docker」の現状を紹介します。 「Docker で GPU を使うためにあちこち調べてみたけれど、nvidia-docker コマンドを使えばよいとか、--rutime=nvidiaオプションが必要とか、はたまた Docker が標準で GPU をサポートしたとか、色々な情報があってよくわか

                                                                                NVIDIA Docker って今どうなってるの? (20.09 版)
                                                                              • NVIDIAが基調講演に使った「キッチンでしゃべるCEOの映像」が自社製ツールで作ったCGであることが明らかに

                                                                                NVIDIAが2021年4月に行った基調講演について、ジェン・スン・ファンCEOが登壇するシーンの一部や撮影現場として用いられたキッチンなどが、3Dデザインコラボレーションプラットフォーム「NVIDIA Omniverse」で作成されたCGだったと明かしました。 NVIDIA Omniverse Changes the Way Industries Collaborate | NVIDIA Blog https://blogs.nvidia.com/blog/2021/08/11/omniverse-making-of-gtc/ Nvidia Reveals Its CEO Was Computer Generated in Keynote Speech https://www.vice.com/en/article/88nbpa/nvidia-reveals-its-ceo-was-co

                                                                                  NVIDIAが基調講演に使った「キッチンでしゃべるCEOの映像」が自社製ツールで作ったCGであることが明らかに
                                                                                • 【後藤弘茂のWeekly海外ニュース】 人間の脳から産まれたディープラーニングのプルーニング

                                                                                    【後藤弘茂のWeekly海外ニュース】 人間の脳から産まれたディープラーニングのプルーニング

                                                                                  新着記事