並び順

ブックマーク数

期間指定

  • から
  • まで

1 - 29 件 / 29件

新着順 人気順

ollamaの検索結果1 - 29 件 / 29件

タグ検索の該当結果が少ないため、タイトル検索結果を表示しています。

ollamaに関するエントリは29件あります。 LLMAI人工知能 などが関連タグです。 人気エントリには 『M1MacでOllamaを試したら爆速で驚いた』などがあります。
  • M1MacでOllamaを試したら爆速で驚いた

    はじめに いつもNVIDIAが載っているWindowsで楽しくLLMを動かしたり生成AIライフを楽しんでいますが、今回はMacOSでOllamaを入れてLlama3を動かしてみました。 スペック: Apple M1 Pro(16 GB) 少し前だとCUDAのないMacでは推論は難しい感じだったと思いますが、今ではOllamaのおかげでMacでもLLMが動くと口コミを見かけるようになりました。 ずっと気になっていたのでついに私のM1 Macでも動くかどうかやってみました! 結論、爆速で推論できていたのでとても驚きました。OSS開発に感謝です! Ollamaとは OllamaとはローカルでLLMを動かすことができるアプリケーションです。 以下からダウンロードできます。 MacOSとLinuxで使うことができます。Windowsもプレビュー版があるみたいです。 #いざ推論 ダウロードができたらシ

      M1MacでOllamaを試したら爆速で驚いた
    • さまざまなチャットAIを簡単にローカル環境で動かせるアプリ「Ollama」の公式Dockerイメージが登場

      「Mistral」「Llama 2」「Vicuna」などオープンソースの大規模言語モデルを簡単にローカルで動作させることが可能なアプリ「Ollama」の公式Dockerイメージが登場したので、早速使い勝手を試してみました。 Ollama is now available as an official Docker image · Ollama Blog https://ollama.ai/blog/ollama-is-now-available-as-an-official-docker-image Ollamaで動作可能な大規模言語モデルの代表例は下記の通り。リストの全体についてはOllamaの公式サイトで確認することができます。 モデルパラメーターサイズDownloadMistral7B4.1GBollama run mistralLlama 27B3.8GBollama run ll

        さまざまなチャットAIを簡単にローカル環境で動かせるアプリ「Ollama」の公式Dockerイメージが登場
      • Ollama + Open WebUI でローカルLLMを手軽に楽しむ

        ローカルLLMを手軽に楽しむ ローカルLLMを手軽に動かせる方法を知ったので紹介します。今まではLLMやPC環境(GPUの有無)に合わせてDocker環境を構築して動かしていました。 それが、OllamaとOpen WebUIというソフトを組み合わせることで、ChatGPTのように手軽にローカルでLLMを動かすことができます。参考にしたサイトなどは本記事の末尾で紹介します。特にもりしーさんの動画はきっかけになりました(感謝です)。 動かす方法として以下2つを紹介します。 Ollama単体で動かす方法(初心者向け) Ollama + Open WebUIでGUI付きで動かす方法(Dockerが分かる人向け) 初心者でとりあえずLLMを動かすのにチャレンジしたいという人は、1つ目のOllama単体で動かす方法にトライするのがおすすめです。 Dockerとか普段から使っているという人は、1をとば

          Ollama + Open WebUI でローカルLLMを手軽に楽しむ
        • ローカルでLLMの推論を実行するのにOllamaがかわいい

          ローカルでLLMを動かそうとなったら transformers ライブラリ、llama.cpp、text generation webuiなどいくつかの選択肢があると思いますが、どれもめちゃくちゃハードルが高いというほどではないですが、動かすまでの手続が若干いかつい印象があります。 そんな中で Ollama というツールを試してみたところインターフェイスがシンプル、ついでにキャラクターのラマが可愛いのでご紹介していこうと思います。 ちなみにですが、日本語での言及はあまり見かけなかったですが、LangChain が出してるレポートでは OSS モデルを動かすのに使われているものとしては3番目に多く使われており、 出典: LangChain State of AI 2023 GitHub のスター数も現在約33700とかなり人気を集めていそうです。 Ollama で CLI から推論 では早速

            ローカルでLLMの推論を実行するのにOllamaがかわいい
          • Ollama

            Get up and running with large language models. Run Llama 2, Code Llama, and other models. Customize and create your own.

              Ollama
            • 対話型TUIローカルLLM生成AIのOllamaを入れて遊んでみた。中身はllama.cpp。TUIがとても使いやすい。モデルがQ4量子化されていてコンパクト。LinuxとAndroid上のTermuxでも動いた。

              中身はllama.cppなので、基本的な挙動は同じです。コマンドライン向けのUIが便利です。 Phi-2など小さいモデルなら低スペック用、高スペック用など使い分けして使えます。

                対話型TUIローカルLLM生成AIのOllamaを入れて遊んでみた。中身はllama.cpp。TUIがとても使いやすい。モデルがQ4量子化されていてコンパクト。LinuxとAndroid上のTermuxでも動いた。
              • GitHub - ollama/ollama: Get up and running with Llama 3, Mistral, Gemma, and other large language models.

                You signed in with another tab or window. Reload to refresh your session. You signed out in another tab or window. Reload to refresh your session. You switched accounts on another tab or window. Reload to refresh your session. Dismiss alert

                  GitHub - ollama/ollama: Get up and running with Llama 3, Mistral, Gemma, and other large language models.
                • ollamaで Fugaku-LLM を動かす

                  昨日公開された Fugaku-LLM は珍しく公式が GGUF ファイルを配布してくれているので、これを使って手元の Macbook で動かしてみます。 準備: ollama をインストールする 以下のインストーラに従ってアプリケーションを入手できます。 アプリケーションの指示に従って、CLI 上でも ollama コマンドを使えるようにしておきます。 ステップ1: Fugaku-LLM のファイルをダウンロードする からお好みのファイルを選びます。 とりあえず、一番サイズの小さい(おそらく量子化が一番効いている) 「Fugaku-LLM-13B-instruct-0325b-q5_k_m.gguf」を選びます。 の download ボタンからダウンロード。 ステップ2: Modelfile を作成する モデルファイルのダウンロードが終わったら、同じディレクトリに、Modelfile と

                    ollamaで Fugaku-LLM を動かす
                  • Fugaku-LLMをollamaで利用する

                    国産LLMであるFugaku-LLMが2024-05-10に公開されました。 LLMのチャットアプリとしてインストールが簡単で人気のollamaに、Fugaku-LLMのモデルを登録して使うことができたので、その手順を紹介します。 動作確認環境 OS Ubuntu 22.04 Desktop および WSL上のUbuntu-22.04 ollama v0.1.34 (2024-05-10時点の最新バージョン) (1) ollamaをインストールする (まだollamaをインストールしていなければ) ollamaの公式サイトに行って「Download↓」をクリックし、 OSに応じたインストーラーを入手してインストールします。 (WSL上のUbuntu-22.04の場合はもちろんLinuxです) (2) Fugaku-LLMのGGUFファイルをダウンロードする Fugaku-LLMには2024

                      Fugaku-LLMをollamaで利用する
                    • ノーコードLLM統合アプリのdifyでollamaと連携してみた - Qiita

                      はじめに 革新的な連携: ノーコードプラットフォームDifyとAIツールOllamaの連携により、開発プロセスが劇的に変革されます。 探求: この記事では、両ツールの統合手順と開発者にとっての利点を詳しく探ります。Difyの直感的なインターフェースを通じて、OllamaのAIモデルを効果的に活用する方法を紹介します。 Ollamaとは Ollamaは、LLama3やLLava、vicunaやPhiなどのオープンに公開されているモデルを手元のPCやサーバーで動かすことの出来るツールです。 difyとは DifyはオープンソースのLLMアプリ開発プラットフォームです。 RAGエンジンを使用して、エージェントから複雑なAIワークフローまでLLMアプリを編成します。 前提の環境の説明 OS: Windows 11 ollamaはWinodowsのインストーラを使用する difyはDocker De

                        ノーコードLLM統合アプリのdifyでollamaと連携してみた - Qiita
                      • 【ollama / Phi-3】ニュースで話題のLLMをローカルPC上で動かしてみる

                        この記事では、ローカルLLMの実行ツール「ollama」を活用して、Microsoftが開発した軽量言語モデル「Phi-3」をMac上で実行する手順を紹介します。 実行例 はじめに 2024年4月、スマートフォン単体でも実行できる軽量な言語モデルの「Phi-3」がMicrosoft社より発表されました。 このほかにも、Meta社の「Llama3」など、ローカル環境でも実行可能なLLMの選択肢が増えてきています。 そこで今回は、これらのLLMがどのような性能を発揮するのか、手元のMacBook Airで試してみることにしました。 この記事では、ローカルLLMの基礎知識や、実行までの手順を簡潔にまとめます。 (あくまで体感での性能確認にとどめており、定量的なベンチマークなどは行なっていません。) 環境 今回、ローカルLLMを実行した環境は以下のとおりです。おそらく、現在MacBookをお使いの

                          【ollama / Phi-3】ニュースで話題のLLMをローカルPC上で動かしてみる
                        • Vercel AI SDK で Ollama を使う方法

                          はじめに Vercel AI SDK (React 等から LLM の API をいい感じに stream で呼び出せるようにするやつ) から Ollama (OSS の LLM をローカルで動かすやつ) を呼び出す方法を調べました。 参考 課題 Vercel AI SDK の サンプルコードを、OpenAI から Ollama の langchain のモデルを使って、置き換えて動かそうとしたけど、なぜかうまくいかなかった。 解決方法 ここのディスカッションにいろんな解決方法が記載されている。その中からいくつか試した。 解決方法 1 OpenAI Compatibility API を使う OpenAI API と同じ API で呼び出す方法。呼び出せるモデルに制約がある。マルチモーダルの llava は呼び出せない。 URL 変えるくらい。シンプル。すんなり動いた。 解決方法 2 la

                            Vercel AI SDK で Ollama を使う方法
                          • オープンソースのLLMをローカルで実行できる「Ollama」Windowsプレビュー版、公開

                            Ollama Projectは2024年2月15日(米国時間)、オープンソースの大規模言語モデル(LLM)をローカル環境で実行できる「Ollama」のWindowsプレビュー版を公開した。 Ollamaは、「Llama 2」「Mistral」「Gemma」などの大規模言語モデルのダウンロード、実行、作成、カスタマイズができるオープンソースのツールだ。 Ollamaの特徴 ハードウェアアクセラレーション Ollamaは、NVIDIA GPUやIntel AVX(Intel Advanced Vector Extensions)/AVX2などのCPU命令セットを使用してモデルの実行を高速化するハードウェアアクセラレーションに対応している。同機能は既にOllamaに組み込まれており、追加の設定や仮想化は不要だ。 関連記事 Google、商用利用可能な軽量オープンAIモデル「Gemma」を公開 G

                              オープンソースのLLMをローカルで実行できる「Ollama」Windowsプレビュー版、公開
                            • GitHub - lobehub/lobe-chat: 🤯 Lobe Chat - an open-source, modern-design LLMs/AI chat framework. Supports Multi AI Providers( OpenAI / Claude 3 / Gemini / Perplexity / Bedrock / Azure / Mistral / Ollama ), Multi-Modals (Vision/TTS) and plugin system. One-

                              You signed in with another tab or window. Reload to refresh your session. You signed out in another tab or window. Reload to refresh your session. You switched accounts on another tab or window. Reload to refresh your session. Dismiss alert

                                GitHub - lobehub/lobe-chat: 🤯 Lobe Chat - an open-source, modern-design LLMs/AI chat framework. Supports Multi AI Providers( OpenAI / Claude 3 / Gemini / Perplexity / Bedrock / Azure / Mistral / Ollama ), Multi-Modals (Vision/TTS) and plugin system. One-
                              • llama3をollamaを使って手元のPCで動かしRubyのFizzBuzzを書かせる - Qiita

                                とても簡単である。これだけでllama3を試すことができる。 GPUがなくても十分に実用な速度で動きます! llama3:70b も試すことができるが、流石に普通のデスクトップコンピューターだと重い。モデルも40GBあるから、ノートパソコンだと動かしづらいかもしれない。 少し試した印象だと決して日本語は得意ではないので、英語での利用が推奨される。 ちなみにQiitaのことは知っている。 llama3 の場合 llama3:70b の場合 情報の信憑性はほとんど期待できないが、それらしい文章を書く能力は優秀そうだ。 FizzBuzz プログラミングの課題も少しやってもらう。 ここではRubyでFizzBuzzを書いてもらった。 llama3 の場合 llama3:70b の場合 このぐらいの難易度の課題であればさくっとやってくれそうである。 コード生成とローカルLLM AIのプログラミング能

                                  llama3をollamaを使って手元のPCで動かしRubyのFizzBuzzを書かせる - Qiita
                                • ollamaによるローカルLLMで、テキスト生成、マルチモーダル推論、Embeddingを試してみた - Qiita

                                  ollamaはオープンソースの大規模言語モデル(LLM)をローカルで実行できるOSSツールです。様々なテキスト推論・マルチモーダル・Embeddingモデルを簡単にローカル実行できるということで、どれくらい簡単か?実際に使えそうか?試してみました。 検証環境 本記事は以下を使用しての検証になります。 ローカル環境 端末 Mac ollamaアプリ ollama 0.1.32 その他 curl Node.js v20.11.1 0. セットアップ ollama公式ページからダウンロードし、アプリケーションディレクトリに配置します。 アプリケーションを開くと、ステータスメニューバーにひょっこりと可愛いラマのアイコンが表示され、ollama コマンドが使えるようになります。 1. 使い方 1-1. テキスト生成モデル 代表的なテキスト生成モデル gemma Google社が公開している、Gemi

                                    ollamaによるローカルLLMで、テキスト生成、マルチモーダル推論、Embeddingを試してみた - Qiita
                                  • Ollamaですごく簡単にLLMを動かせたけど…

                                    ※ 今回の画像は DALL E3 で作ってみた。Transformer を ChatGPT に説明させて、その要旨を短く拾い上げ(これは自分でやった)、それを元に画像生成の指示とした。 まとめとにかくでかい 環境AppleSillicon Mac メモリ 16GBmacOS 13.6colima 0.6.7 ( limactl 0.19.1 )docker 24.0.2 ( via Homebrew )Ollama 0.1.15llama.cpp 1709 (ea5497d) built with clang-1403.0.22.14.1 for arm64やったこと / できたことローカルで LLM を動かすために Ollama を動かしてみた。めちゃくちゃ簡単だったneural-chat モデルを pull して動かした → おぉ、なんかそれっぽいチャットができる!Hugging Fa

                                    • Python & JavaScript Libraries · Ollama Blog

                                      Python & JavaScript Libraries January 23, 2024 The initial versions of the Ollama Python and JavaScript libraries are now available: Ollama Python Library Ollama JavaScript Library Both libraries make it possible to integrate new and existing apps with Ollama in a few lines of code, and share the features and feel of the Ollama REST API. Getting Started Python pip install ollama import ollama resp

                                        Python & JavaScript Libraries · Ollama Blog
                                      • GitHub - BerriAI/litellm: Call all LLM APIs using the OpenAI format. Use Bedrock, Azure, OpenAI, Cohere, Anthropic, Ollama, Sagemaker, HuggingFace, Replicate (100+ LLMs)

                                        You signed in with another tab or window. Reload to refresh your session. You signed out in another tab or window. Reload to refresh your session. You switched accounts on another tab or window. Reload to refresh your session. Dismiss alert

                                          GitHub - BerriAI/litellm: Call all LLM APIs using the OpenAI format. Use Bedrock, Azure, OpenAI, Cohere, Anthropic, Ollama, Sagemaker, HuggingFace, Replicate (100+ LLMs)
                                        • GitHub - QuivrHQ/quivr: Your GenAI Second Brain 🧠 A personal productivity assistant (RAG) ⚡️🤖 Chat with your docs (PDF, CSV, ...) & apps using Langchain, GPT 3.5 / 4 turbo, Private, Anthropic, VertexAI, Ollama, LLMs, Groq that you can share with users !

                                          Your GenAI Second Brain 🧠 A personal productivity assistant (RAG) ⚡️🤖 Chat with your docs (PDF, CSV, ...) & apps using Langchain, GPT 3.5 / 4 turbo, Private, Anthropic, VertexAI, Ollama, LLMs, Groq that you can share with users ! Local & Private alternative to OpenAI GPTs & ChatGPT powered by retrieval-augmented generation.

                                            GitHub - QuivrHQ/quivr: Your GenAI Second Brain 🧠 A personal productivity assistant (RAG) ⚡️🤖 Chat with your docs (PDF, CSV, ...) & apps using Langchain, GPT 3.5 / 4 turbo, Private, Anthropic, VertexAI, Ollama, LLMs, Groq that you can share with users !
                                          • ollamaで LLM-jp-13B v2.0 を動かす

                                            最近 ollama の名前をよく聞くようになったので、自分でも試してみることにしました。 結論として、とてもお手軽に CPU 環境でローカル LLM を動かすことができたので、今後は ollama も積極的に使っていきたいなと思います。 ollama とは? ローカル LLM を動かすためのライブラリです。 LLM-jp-13B とは? NII主催の団体 LLM-jp が開発している、日本語に特化したローカル LLM です。 日本では、まだ数の少ない、フルスクラッチで学習された日本語LLM[1]で、寛容な Apache-2.0 で提供されています。 ollama で LLM-jp-13B v2.0 を動かす ではさっそく始めていきましょう。 準備: ollama をインストールする 以下のインストーラに従ってアプリケーションを入手できます。 アプリケーションの指示に従って、CLI 上でも

                                              ollamaで LLM-jp-13B v2.0 を動かす
                                            • Run Llama 2 uncensored locally · Ollama Blog

                                              Run Llama 2 uncensored locally August 1, 2023 In May 2023, Eric Hartford, a machine learning engineer authored a popular blog post “Uncensored Models” providing his viewpoints to the merits of uncensored models, and how they are created. It’s a great read! This post will give some example comparisons running Llama 2 uncensored model vs its censored model. Some of the uncensored models that are ava

                                                Run Llama 2 uncensored locally · Ollama Blog
                                              • OllamaでGemmaをローカル実行!日本語処理とプログラミング能力を試してみた|AstroPomeAI

                                                先日DeepmindからオープンソースモデルGemmaがリリースされました。大規模言語モデルをローカルで簡単に実行できるツールOllamaかGemmaを利用してみます。 Ollama now supports Google Gemma! (Please update to v0.1.26) 2B model: ollama run gemma 7B model: ollama run gemma:7b Learn more:https://t.co/ULq9L3PHTJ You can run non-quantized versions via Ollama (if video memory is sufficient): ollama run gemma:2b-instruct-fp16… https://t.co/Hti1kpc8Sz — ollama (@ollama) Febru

                                                  OllamaでGemmaをローカル実行!日本語処理とプログラミング能力を試してみた|AstroPomeAI
                                                • 【Ollama】自宅サーバーでかんたんにローカルLLMを動かす方法*

                                                  こんにちは、1日16時間以上はAIを触っている株式会社FP16の二宮です。 (FP16だけに...?笑) 「OpenAIやMicrosoftにずっとお金を払っていたくない!」 「自分たちで管理できる場所で実行したい!」 と思うことはありませんか? 今回はそんな方へ向けての記事です。 Ollamaとは? 今回はOllamaというこれからローカルでLLMを動かすなら必ず使うべきツールについて紹介します。 Ollamaは、LLama2やLLava、vicunaやPhiなどのオープンに公開されているモデルを手元のPCやサーバーで動かすことの出来るツールです。 LinuxとmacOSに対応しており、WindowsでもWSLを使うことで動かすことが出来ます。(Windowsも今後対応予定) OllamaはCLI又はAPIで使うことができ、そのAPIを使ってオープンソースでOllama WebUIも開発

                                                    【Ollama】自宅サーバーでかんたんにローカルLLMを動かす方法*
                                                  • ローカルにWebUI付きLLM環境を構築 with Ollama|JAP

                                                    Ollama と Open WebUI を組み合わせて ChatGTP ライクな対話型 AI をローカルに導入する手順を解説します。 完成図(これがあなたのPCでサクサク動く!?) 環境この記事は以下の環境で動作確認を行っています。 OS Windows 11 Home 23H2 CPU 13th Gen Intel(R) Core(TM) i7-13700F 2.10 GHz RAM 32.0 GB GPU NVIDIA GeForce RTX 4070 Ti 専用 GPU メモリ 12.0 GB 共有 GPU メモリ 15.9 GB WSL2 Ubuntu 22.04.3 LTS Ubuntu と Docker のインストールWindows11 に WSL2 を使って Ubuntu をインストールします。 環境の構築は Terminal ( CLI ) で行います。 Ubuntu のイ

                                                      ローカルにWebUI付きLLM環境を構築 with Ollama|JAP
                                                    • Building LLM-Powered Web Apps with Client-Side Technology · Ollama Blog

                                                      Building LLM-Powered Web Apps with Client-Side Technology October 13, 2023 This is a guest blog post by Jacob Lee, JS/TS maintainer at @LangChainAI, formerly co-founder & CTO at @Autocode, engineer on Google photos. The initial version of this blog post was a talk for Google’s internal WebML Summit 2023, which you can check out here: It’s no secret that for a long time machine learning has been mo

                                                        Building LLM-Powered Web Apps with Client-Side Technology · Ollama Blog
                                                      • Ollama で Elyza-7B を試す|npaka

                                                        2. Ollama での Llama2 の実行はじめに、「Ollama」で「Llama2」を試してみます。 (1) Ollamaのサイトからインストーラをダウンロードしてインストール。 (2) モデルの実行。 初回はモデルをダウンロードするため時間かかりますか、2回目以降は高速起動します。 $ ollama run llama2:7b-chat(3) プロンプト (>>>) に質問を入力。 「Llama2」は英語モデルのため、英語で質問を入力します。 >>> Who is the cutest in Madoka Magica? In Puella Magi Madoka Magica, there are several characters who are considered cute by many fans. However, it's important to remember

                                                          Ollama で Elyza-7B を試す|npaka
                                                        • ollamaが便利だから使用方法をメモる|JohnK.Happy

                                                          ollamaはどうやらコンテナを扱う様なノリでローカルLLMを実行可能にするツールらしい。 データセットを作成させたりプロンプトを作成させたり出来る。 Macなら使い方は簡単だ GitHub - ollama/ollama: Get up and running with Llama 2, Mistral, and other large language models locally. Linux OR WSL2 環境の場合はこれで入る curl https://ollama.ai/install.sh | shDockerイメージも用意されているのでDockerで起動してもよさそう llama2 を実行したい場合は次のようにする ollama run llama2 Dockerfileを書く様なノリでModelfileを書いてビルド出来る 1ローカルにダウンロード済みのモデルを指定して

                                                            ollamaが便利だから使用方法をメモる|JohnK.Happy
                                                          • How to Run LLMs Locally on Raspberry Pi Using Ollama AI

                                                            This article assumes that you have the basic understanding of AI, LLMs and other related tools and jargon. Installing Ollama on Raspberry Pi OS (and other Linux)The installation process of Ollama is effortless. For installation on Linux, you have to fetch their official installation script and run it. That's the official method described on their website. You can download it manually and read what

                                                              How to Run LLMs Locally on Raspberry Pi Using Ollama AI
                                                            1

                                                            新着記事