並び順

ブックマーク数

期間指定

  • から
  • まで

281 - 320 件 / 1137件

新着順 人気順

LLMの検索結果281 - 320 件 / 1137件

  • LLMに表データの解析を手伝ってもらえるLangChainのPandas Dataframe Agentの中身がどうなっているのか調べた - まったり勉強ノート

    最近、LLMを使ったOSSの中身を調べてLLMとどう連携して目的を達成しているのかをいろいろ調べています。今回はLangChainのPandas Dataframe Agentの中身がどうなっているのか気になったので調べたまとめになります。 今回のコードは以下のところにあるので、全体としてどうなっているのか見たい方はこちらをご覧ください。 https://github.com/shu65/langchain_examples/blob/main/LangChain_Pandas_Dataframe_Agent.ipynb LangChainのPandas Dataframe Agentとは LLMを使いやすくwrapしてくれるLangChainにはいくつかAgentというLLMとToolと呼ばれるものを組み合わせて実行する仕組みが用意されています。この中でもPandas Dataframe

      LLMに表データの解析を手伝ってもらえるLangChainのPandas Dataframe Agentの中身がどうなっているのか調べた - まったり勉強ノート
    • LLM Fine-Tuning (東大松尾研LLM講座 Day5資料)

      東大松尾研サマースクール2023「大規模言語モデル」Day5の講義で使用した資料です。大規模言語モデルの Fine-Tuning をテーマに、Instruction Tuning および Parameter Efficient Fine-Tuning について体系的に紹介することを目指した内容となっています。 講座リンク: https://deeplearning.jp/llm2023/

        LLM Fine-Tuning (東大松尾研LLM講座 Day5資料)
      • ビジネスのドメインや最新情報に対応した130億パラメータの日本語LLMの公開

        Research部門の近江崇宏です。 ストックマークではビジネスのドメインや最新情報(2023年9月まで)に対応した130億パラメータの大規模言語モデル(LLM)を商用利用も可能なライセンスで公開しました。 モデルはHuggingface Hubからダウンロードいただけます。 https://huggingface.co/stockmark/stockmark-13b このモデルは、合計2200億トークンの日本語のテキストデータにより事前学習が行われました。 一般に事前学習でよく使われるWikipediaやCommonCrawl由来のコーパスだけではなく、当社が独自に収集しているビジネスに関連するWebページや特許などのデータも用いました。 そのため、既存のモデルに比べると、最新の情報やビジネスのドメインに対応したようなモデルになっております。 実際に、ビジネスに関連する知識を問うタスクで

          ビジネスのドメインや最新情報に対応した130億パラメータの日本語LLMの公開
        • 「RAGはそんなに簡単じゃない」──AIエンジニア主導でLLMを導入すると失敗に? 日本語特化のELYZA・曽根岡CEOに聞く、LLM開発&活用のいま

          「RAGはそんなに簡単じゃない」──AIエンジニア主導でLLMを導入すると失敗に? 日本語特化のELYZA・曽根岡CEOに聞く、LLM開発&活用のいま(1/2 ページ) GPT-3.5 Turboと同水準の日本語特化型LLMを開発したELYZA。4月にはKDDIグループの傘下となり、注目を集めている。日本語性能トップクラスのLLMをどう作っているのか。KDDI傘下になったのはどんな狙いが? LLM活用でいま注目のポイントは? 気になることを、曽根岡侑也CEOにインタビューした。 「ChatGPTがやってることを全部やりきった」 3月に発表した700億パラメータモデル「ELYZA-japanese-Llama-2-70b」は、OpenAIの「GPT-3.5 Turbo」やGoogleの「Gemini 1.0 Pro」に匹敵する日本語タスク処理性能を備える。性能向上をどのように実現したのか。

            「RAGはそんなに簡単じゃない」──AIエンジニア主導でLLMを導入すると失敗に? 日本語特化のELYZA・曽根岡CEOに聞く、LLM開発&活用のいま
          • LLM in Productionで登壇しました、それとChat is not all you needの話 - LayerX エンジニアブログ

            皆さんこんにちは。CTO兼LayerX LLM Labsの松本です。最近はずっとLLMを触り続けており、新規事業としてLLMを使った企業向けツールの開発にも取り組んでいます。コード書いてます。 【宣伝】LLM Labsではソフトウェアエンジニア、絶賛募集中です!! 【LLM Labs】ソフトウェアエンジニア / 株式会社LayerX ところで今回は以前登壇したLLM in Productionでのトークについて触れていきます。ちなみにLLM in ProductionはMicrosoftさんと取り組んでいる、大規模言語モデルを実事業に活用していくための知見を共有する場として始めた勉強会コミュニティとなります。 speakerdeck.com Chat、盛り上がってますね ここしばらく、ChatGPTを中心としたChatのインターフェースは、友人や家族との個人的な会話から、企業やサービスとの

              LLM in Productionで登壇しました、それとChat is not all you needの話 - LayerX エンジニアブログ
            • 既存のAIモデルを組み合わせて超高性能モデルを作る手法を日本のAI企業「Sakana AI」が開発、進化的アルゴリズムで膨大な組み合わせを試行し人間には発想困難な高性能LLMや画像生成モデルを作成可能

              東京に拠点を置くAI企業「Sakana AI」が、複数の生成AIモデルを進化的アルゴリズムを用いて組み合わせて新たなモデルを作り出す手法を開発しました。Sakana AIはすでに大規模言語モデルや画像生成モデルの作成に成功しており、各モデルは既存のモデルよりも高い性能を備えていることが確かめられています。 進化的アルゴリズムによる基盤モデルの構築 https://sakana.ai/evolutionary-model-merge-jp/ [2403.13187] Evolutionary Optimization of Model Merging Recipes https://arxiv.org/abs/2403.13187 ◆技術の概要 生成AIモデルをゼロから作成するには、高性能なGPUを大量に用意して膨大な計算処理を実行する必要があります。一方で、既存のモデル同士を組み合わせて新

                既存のAIモデルを組み合わせて超高性能モデルを作る手法を日本のAI企業「Sakana AI」が開発、進化的アルゴリズムで膨大な組み合わせを試行し人間には発想困難な高性能LLMや画像生成モデルを作成可能
              • 世界初、AIモデルの再学習コストを大幅に削減可能な過去の学習過程を再利用する「学習転移」を実現~NTT版LLM「tsuzumi」など基盤モデルの更新・差し替えを容易に~ | ニュースリリース | NTT

                ◆深層学習において、過去の学習過程をモデル間で再利用する全く新たな仕組みとして「学習転移」技術を実現しました。 ◆本技術は、深層学習におけるパラメータ空間の高い対称性を活用し、実際に学習することなく低コストな変換により数秒~数分程度で一定の精度を実現できるため、モデルの再学習コストを抜本的に削減できることを示しました。 ◆これにより、NTTが研究開発を進める大規模言語モデル(LLM)「tsuzumi(*1)」をはじめとした多様な基盤モデル(*2)の運用コスト削減・消費電力の削減や、多数のAIで議論することで多様な解の創出をめざしたAIコンステレーション(*3)の構想具現化など、次世代のAI技術開発に貢献します。 日本電信電話株式会社(本社:東京都千代田区、代表取締役社長:島田 明、以下「NTT」)は、深層学習において過去の学習過程をモデル間で再利用する全く新たな仕組みとして「学習転移」技術

                  世界初、AIモデルの再学習コストを大幅に削減可能な過去の学習過程を再利用する「学習転移」を実現~NTT版LLM「tsuzumi」など基盤モデルの更新・差し替えを容易に~ | ニュースリリース | NTT
                • LLMの誤り(ハルシネーション)発生原因と、「創造性と事実性のバランス」などの対策ロードマップ | AIDB

                  LLMの誤り(ハルシネーション)発生原因と、「創造性と事実性のバランス」などの対策ロードマップ 2023/11/14 AI論文紹介 LLM AIDB Research 大規模言語モデル(LLM)における「ハルシネーション(幻覚)」に関する網羅的な調査報告が発表されました。ハルシネーションとは、LLMの出力が現実の事実やユーザー入力と矛盾する現象です。 研究者らは、ハルシネーションはデータ、トレーニング、推論という三つの段階に根ざしていることを明らかにしました。また、LLMの実用化に対する重大な課題であるため、より信頼性の高いモデルの開発に向けた研究の方向性を示しています。 今後のロードマップとしては、創造性と真実性のバランスに関する議論や、LLM自身に知識の境界に関する理解を深めさせることなどが挙げられています。 本記事では、調査報告の核心部分を詳細に見ていきます。 参照論文情報 タイトル

                    LLMの誤り(ハルシネーション)発生原因と、「創造性と事実性のバランス」などの対策ロードマップ | AIDB
                  • ロングコンテキストLLMに対応したRAGの新アーキテクチャ|npaka

                    以下の記事が面白かったので、簡単にまとめました。 ・Towards Long Context RAG - LlamaIndex 1. はじめにGoogleは、1Mコンテキストウィンドウを持つ「Gemini 1.5 Pro」をリリースしました。初期ユーザーは、数十もの研究論文や財務報告書を一度に入力した結果を共有しており、膨大な情報を理解する能力という点で印象的な結果を報告しています。 当然のことながら、ここで疑問が生じます。「RAG」は死んだのでしょうか?そう考える人もいますが、そうではない人もいます。 幸運にも「Gemini 1.5 Pro」の機能をプレビューすることができ、それを試してみることで、ロングコンテキストLLMを適切に使用するには、RAGがどのように進化するのかについてのまとめました。 2. Gemini 1.5 Pro の 初期観察「Gemini」の結果は印象的で、テクニカ

                      ロングコンテキストLLMに対応したRAGの新アーキテクチャ|npaka
                    • ELYZA-tasks-100 でLLM14個の日本語性能を横断評価してみた - Qiita

                      TL;DR 14個の「日本語が話せるLLM」(日本製・外国製問わず)の性能を、日本語データセット ELYZA-tasks-100 で横断評価しました 海外勢70Bモデルの性能が高いことがわかりました。7Bでは ELYZA-japanese-llama-2 や CALM2 の成績がよかったです モデルの回答・スクリプトへのリンクは記事内に貼っています JGLUE などのベンチマークは、モデルの性能を反映しているのか? 2023年は、かつてないほど多くの LLM が(クローズド・パブリック問わず)公開され、まさに LLM フィーバーの年でした。 一方で、どのモデルが高性能なのか、自分の利用用途に合ったモデルはどれなのか、とお悩みの方も多いのではないでしょうか。 LLM の性能を比較するときに役立つのが、ベンチマークです。 英語圏の LLM に関していえば、MMLU や HellaSwag、Wi

                        ELYZA-tasks-100 でLLM14個の日本語性能を横断評価してみた - Qiita
                      • Chat Vectorを使って日本語LLMをチャットモデルに改造する - Qiita

                        はじめに Chat Vector: A Simple Approach to Equip LLMs with Instruction Following and Model Alignment in New Languages という論文では、LLMの学習済み重みパラメータの足し引きによって、事前学習済みモデルに対話能力を与えることができるという結果が示されています。 具体的には、英語で事前学習されたモデル(以下ではベースモデルと呼びます)と、ベースモデルを指示チューニング (instruction tuning)してチャット形式の対話ができるようにしたモデル(英語チャットモデル)、ベースモデルを英語以外の言語で継続事前学習したモデルの3つのモデルを用います。 英語チャットモデルの重みからベースモデルの重みを引いたものは、チャット形式で対話ができる能力を表したベクトルであり、そのベクトルを

                          Chat Vectorを使って日本語LLMをチャットモデルに改造する - Qiita
                        • local LLMをChatGPT API互換サーバとして使う方法まとめ(2023/10版) - Qiita

                          はじめに openai chat completions api(以下ChatGPT API)を使っているが、コストダウンやドメインに特化したfinetuneモデルを使いたいといったニーズでlocal LLMを使いたいというニーズがあると思います。 その場合に、ChatGPT APIを利用する側のアプリケーションコードはそのままで、local LLMをサーバとしてたてて、使用するLLMだけ変えるという実現方法が考えられます。 幾つか良い実現方法があったため、現状、どのようなツールを使用して実現できるか簡単にまとめました。 ところで、偉い人に「うちもChatGPT作って」と言われた時、あなたならどうしますか? (その答えの一つを「おわりに」に書きました) 解説 ChatGPT API互換サーバを作る場合、自分でlocal LLMをラップしてAPIサーバを実装してしまうことも考えられますが、そ

                            local LLMをChatGPT API互換サーバとして使う方法まとめ(2023/10版) - Qiita
                          • 東京大学工学部を中退しました|中村 龍矢 | LayerX 事業部執行役員 AI・LLM事業部長

                            中村 (@nrryuya_jp) です。先月末を持って、東京大学工学部を中退しました。高卒です。現在はLayerXというスタートアップのAI・LLM事業部担当執行役員・事業責任者をしています。 東大にはたしか3年生から完全に行かなくなってしまい、それからもう7年以上は経過しています。ずっと休学と留年を組み合わせて学籍だけ残っていました。が、ようやく正式に退学になりました。 スタートアップ界隈では、「大学なんて無駄だから行かなくて良い」という声が結構あるように思います。一方、実際に中退した人は意外と少ない気がします。LayerXにも中退や休学をしているメンバーもいて、たまにそういった悩みの相談を受けることもあるので、個人的な体験を書いてみます。また、高校生などでそもそも大学への進学を迷っている人向けにも一つのサンプルを提供できればと思います。 (注: 個人的なバイアスに溢れている記事です。)

                              東京大学工学部を中退しました|中村 龍矢 | LayerX 事業部執行役員 AI・LLM事業部長
                            • ソフトバンクの生成AIは「1兆パラメーター目指す」と宮川社長 “蒸留”して「研ぎ澄まされたLLMに」

                              ソフトバンク子会社のSB Intuitionsが開発している国産大規模言語モデル(LLM)は、1兆パラメーター超えを目指す──ソフトバンクの宮川潤一社長が2月7日に開催した決算説明会(2024年3月期第3四半期)の中で明らかにした。 同社は2023年10月に国内最大級の生成AI開発向け計算基盤の稼働とLLM開発の開始を発表した。宮川社長によると、開発中のLLMは23年12月末の時点で1300億パラメーターに達し、検証を実施しているという。 当面の目標は「3900億パラメーターの構築。並行してLLMのマルチモーダル化も進める」。文書だけでなく、図表や符号、画像といった入力にも対応したLLMを2024年度中に完成させるという。 さらに「先の話」として、1兆超えのパラメーター数を目指すという。そこから“蒸留”とよばれる、パラメーター数の多いモデルの出力をより小さく軽量なモデルに学習させて計算効率

                                ソフトバンクの生成AIは「1兆パラメーター目指す」と宮川社長 “蒸留”して「研ぎ澄まされたLLMに」
                              • Appleが、LLMのパラメータを「SSDなどの外部フラッシュメモリに保存し」PCで効率的にモデルを使用する手法を開発 | AIDB

                                参照論文情報 タイトル:LLM in a flash: Efficient Large Language Model Inference with Limited Memory 著者:Keivan Alizadeh, Iman Mirzadeh, Dmitry Belenko, Karen Khatamifard, Minsik Cho, Carlo C Del Mundo, Mohammad Rastegari, Mehrdad Farajtabar 所属:Apple URL:https://arxiv.org/abs/2312.11514 本記事の関連研究:LLMへの入力プロンプトを「意味を保持したまま」高度に圧縮する技術『LLMLingua』 研究背景 LLMは高性能ですが、多くの計算能力とメモリ(情報を一時的に保存する部分)を必要とします。 そのためメモリ容量が限られているデバイス

                                  Appleが、LLMのパラメータを「SSDなどの外部フラッシュメモリに保存し」PCで効率的にモデルを使用する手法を開発 | AIDB
                                • 【StreamingLLM】トークン数400万、小説40冊を読み込める無限LLM | WEEL

                                  【StreamingLLM】トークン数400万、小説40冊を読み込める無限LLM 2023 10/19 皆さん、StreamingLLMというLLM用のアプリケーションをご存知ですか? LLMで無限に入力ができることを可能にしたツールなんです!LLMを日々使い倒している弊社としては、衝撃のツールなんですよ。 GitHubでも4500超えのスターを獲得しており、徐々に注目が集まっています。AIオタクであれば、知らなかったなんてことないですよね。 このStreamingLLMを使えば、対話型でLLMを動かすことができ、モデルが質問の都度、リアルタイムで応答を生成してくれます。 というわけで、今回はStreamingLLMの使い方や、実際に使ってみた感想などをご紹介します。 この記事を最後まで読むと、StreamingLLMを使いこなすことができ、LLMとのリアルタイムの会話も可能になります!

                                  • マンガ翻訳クラウド「Mantra Engine」がLLMを統合した高精度な翻訳エンジンの提供開始

                                    マンガ翻訳クラウド「Mantra Engine」がLLMを統合した高精度な翻訳エンジンの提供開始ゲーム翻訳など他エンタメ領域にも展開へ Mantra株式会社(所在地:東京都港区、代表取締役:石渡 祥之佑、URL:https://mantra.co.jp/)は、マンガ翻訳に特化した法人向けクラウドサービス「Mantra Engine」に、大規模言語モデル(LLM)を統合した高精度な機械翻訳エンジンを実装し、ベータ版として提供を開始しました。誤訳を従来の10分の1に削減し、多言語対応や翻訳の一貫性を向上させています。今後Mantra EngineはLLMの活用を進め、インタラクティブなユーザーインタフェースを含む新しい翻訳ワークフローの構築や、ゲーム翻訳など他のエンターテインメント領域への展開を進めてまいります。 新エンジン提供の背景 〜誤訳は従来の1/10に。多言語対応や翻訳の一貫性を向上し

                                      マンガ翻訳クラウド「Mantra Engine」がLLMを統合した高精度な翻訳エンジンの提供開始
                                    • 高木浩光@自宅の日記 - 難解な研究成果の普及広報活動は対話型LLMに任せるようになるのかもしれない

                                      ■ 難解な研究成果の普及広報活動は対話型LLMに任せるようになるのかもしれない 分野による話かもしれないが、研究が論述によってのみ成り立つ分野では、理解されてナンボであるため、その普及広報活動に悩まされることになる。ここの日記でも何度か自分の成果を紹介するエントリを書いた*1が、反応が薄くて徒労感がある。先月も書いたように、解説というものは、読み手の理解状況に合わせてカスタマイズする必要があるのだが、本人が解説しようとすると、どうしても全部を説明しようとしてしまって、結局原文を読むのと違わなくなってしまうので、第三者からの「一部を切り取った解説」が求められるのである。 そこで対話型LLMである。究極的には、自分が書いてきた文章の全てをLLMに「理解」させて、あらゆる質問に答えるbotを提供することを目指すことになる。「自分の能力をそんなbotに安売りさせてどうすんだ」という声もあるかもしれ

                                      • 商用利用可能で130億パラメーターの日本語LLM「ELYZA-japanese-Llama-2-13b」が公開/デモも公開されており、実際に能力を試すことが可能

                                          商用利用可能で130億パラメーターの日本語LLM「ELYZA-japanese-Llama-2-13b」が公開/デモも公開されており、実際に能力を試すことが可能
                                        • LCEL (LangChain Expression Language)完全に理解した - Amazon Bedrock APIで始めるLLM超入門⑨ - Qiita

                                          LCEL (LangChain Expression Language)完全に理解した - Amazon Bedrock APIで始めるLLM超入門⑨PythonAWSbedrocklangchainLCEL LCELからBedrockを呼び出してみます。 LCELとは LangChainでコンポーネントをchain(連続呼出)する共通のInterfaceおよびその記法です。 Interfaceは以下のページが分かり易かったですが、要はRunnable共通のメソッドを実装しているというのと、入出力の型はコンポーネント毎に異なる(chainを組む時に入出力の型を意識して合わせる必要がある)というのが理解のポイントかなと思いました。 使い方は公式のクックブックがわりと分かりやすいです。 LangChainの最新化 langchainとlangchain-communityを最新にします。安定バ

                                            LCEL (LangChain Expression Language)完全に理解した - Amazon Bedrock APIで始めるLLM超入門⑨ - Qiita
                                          • DeepL、LLMを搭載した新サービス「DeepL Write Pro」を日本で提供開始

                                              DeepL、LLMを搭載した新サービス「DeepL Write Pro」を日本で提供開始
                                            • 日本語LLMの"1トークン"は何文字相当なのか?

                                              TR:TL 最近、日本語のLLMが続々公開されているが、各LLMが何文字まで生成可能なのかを知りたい。 Rakudaのデータで各LLMのトークナイザーの「1トークンあたりの文字数」を調べた。 標準的な日本語特化のLLMでは2.0~2.6文字/トークン程度、一方で、GPT-4/3.50.96文字/トークン程度。 背景 最近、日本語でも使えるLLMが続々と公開されています。特に、GPT-3.5-turboやGPT-4は、8192トークンという大きい最大トークン長を誇っています。一方で、LINEのjapanese-large-lmなどの2023年時点で公開されている公開されている日本語LLMの多くは、2048トークンが最大トークン数になっている場合が多いです。額面上、LINEのLLMは、OpenAI GPT-3.5の1/4の長さのテキスしか生成できないように見えますが、それぞれのトークナイザーは

                                                日本語LLMの"1トークン"は何文字相当なのか?
                                              • LLMプロダクト開発における独自評価基準とデータセットの作り方の考察

                                                - {place_name}の主要な観光スポットを網羅できているか - 各観光スポットの特徴や見どころを具体的に説明できているか - アクセス方法や所要時間など、実用的な情報を提供できているか - 主観的な意見を述べていないか - 明るく丁寧な口調を維持できているか [ { "input": { "place_name": "鎌倉" }, "output": "鎌倉は神奈川県にある人気の観光地です。以下のような見どころがあります。\n\n1. 鶴岡八幡宮: 源頼朝ゆかりの神社。本殿や舞殿が国宝に指定されています。\n2. 高徳院: 有名な「鎌倉大仏」があります。高さ11.3mの銅造阿弥陀如来座像は圧巻。\n3. 長谷寺: 本尊の十一面観音菩薩は高さ9.18mの木造で、日本最大級です。\n4. 鎌倉文学館: 鎌倉ゆかりの文学者を紹介。歴史的建造物の中で作品を楽しめます。\n5. 江ノ島: 弁

                                                  LLMプロダクト開発における独自評価基準とデータセットの作り方の考察
                                                • Raspberry Pi 5上で軽量LLM、TinyLlamaを動かしてみる - Qiita

                                                  先日、日本で発売されたRaspberry Pi 5 (メモリ4GB)が届いたので、流行りのLLMを動かしてみました。動作の様子は次のツイートに掲載しています。 ニューヨークにあるエンパイアステートビルの説明をしてくれています。 用いたOSは、2023-12-05にリリースされたRaspberry Pi OS (64-bit) with Desktopです。 Raspberry Pi Imagerを用いてSDカードにイメージを書き込み起動しました。 TinyLlamaの環境準備 まずターミナル上で以下のコマンドを実行して、Hugging FaceのサイトからTinyLlamaのモデルをダウンロードしてきます。操作は/home/pi/直下で行っています。 wget https://huggingface.co/TheBloke/TinyLlama-1.1B-Chat-v1.0-GGUF/res

                                                    Raspberry Pi 5上で軽量LLM、TinyLlamaを動かしてみる - Qiita
                                                  • Scikit-LLM - Qiita

                                                    from skllm.config import SKLLMConfig SKLLMConfig.set_openai_key("YOUR_API_KEY") SKLLMConfig.set_openai_org("YOUR_ORG_ID") Oraganization IDはここから確認することができると思います. 2. 文章分類 実装例 現在はZeroShotGPTClassifierとMultiLabelZeroShotGPTClassifierが実装されています. ZeroShotGPTClassifier(ラベルあり) パラメータを変えるような学習をせずに,入力されたデータとそのラベルからIn-Context Learningにより新しく入力されたデータのラベルを予測します. from skllm import ZeroShotGPTClassifier from skllm.d

                                                      Scikit-LLM - Qiita
                                                    • LLMでガチ勝負するには、1000億円じゃなくて、1兆円必要になっている。。 - Vengineerの戯言

                                                      はじめに このブログで7月10日、下記のように、「LLMで勝負するには、1000億円必要か?」と書きました。 vengineer.hatenablog.com また、昨日のブログで、MosaicMLがDatabricksに$1.3Bで買収されたということも書きました。 Google、AWS、Microsoftの投資額 Google : Anthropic に最大$2B投資 (2023.10.28) AWS : 最大$4B (2023.09.25) Microsoft : OpenAI $1B (2019 => 複数年で $10B) この他では、 Intel : Stability AI (4000 Gaudi2) Apple : アップル、“Apple GPT”開発に年間数十億ドルものAIサーバーを購入予定か (2023.1024) 2023年には約6億2000万ドル、2024年には47億

                                                        LLMでガチ勝負するには、1000億円じゃなくて、1兆円必要になっている。。 - Vengineerの戯言
                                                      • 大規模言語モデル(LLM)を爆速で動作させる「言語処理ユニット(LPU)」を開発する「Groq」が爆速アルファデモを公開

                                                        大規模言語モデル(LLM)などを実行するために設計されたカスタムハードウェアである言語処理ユニット(LPU)を開発するGroqが、既存のLLMを爆速で動作させることができるアルファ版デモンストレーションを公開しました。 A company called Groq may have pushed AI chips to the next level https://www.androidheadlines.com/2024/02/openai-groq-ai.html Forget ChatGPT — Groq is the new AI platform to beat with blistering computation speed | Tom's Guide https://www.tomsguide.com/ai/forget-chatgpt-groq-is-the-new-ai-

                                                          大規模言語モデル(LLM)を爆速で動作させる「言語処理ユニット(LPU)」を開発する「Groq」が爆速アルファデモを公開
                                                        • Google Cloudの生成AI(PaLM2)で社内LLM Webアプリを爆速で作ってみた - G-gen Tech Blog

                                                          G-gen 又吉です。Google Cloud (旧称 GCP) の生成 AI (Generative AI) である PaLM 2 を用いて、Cloud Run 上に社内 LLM Web アプリを構築してみました。 はじめに 前提知識 Vertex AI PaLM API Gradio Cloud Runサービスへのアクセス制御 準備 ディレクトリ構成 app.py requirements.txt Dockerfile デプロイ 動作検証 はじめに 今回は、Google Cloud の生成 AI である Vertex AI PaLM API を用いて、社内向け LLM Web アプリを Cloud Run 上にデプロイします。 また、Cloud Run サービスの認証には Identity-Aware Proxy (IAP) を用いることで、社内ユーザーのみがアクセスできる状態を構成で

                                                            Google Cloudの生成AI(PaLM2)で社内LLM Webアプリを爆速で作ってみた - G-gen Tech Blog
                                                          • 高効率のLLM学習手法ReFTを試してみる | 株式会社AI Shift

                                                            こんにちは AIチームの戸田です 今回は先月スタンフォード大学が発表した新しいParameter-efficient fine-tuning(PEFT)のReFTを試してみたいと思います。 PEFT PEFTはLLMのような大規模な事前学習済みのニューラルネットワークのモデルを、効率的にfine-tuningする手法の総称です。モデル全体ではなく一部のパラメータだけを更新することで計算コストを大幅に削減できる上に、Full fine-tuning(モデル全体を学習)するのと同等の性能を達成することができると言われています。代表的なものにLow-Rank Adaptation(LoRA)が挙げられます。 ReFT Representation Finetuning (ReFT)は、LoRAとよく似たPEFT手法です。違いは、LoRAがモデルの重みを部分的に更新するのに対し、ReFTはモデルの

                                                              高効率のLLM学習手法ReFTを試してみる | 株式会社AI Shift
                                                            • 大規模言語モデル(LLM)の強力な応用特許の権利化が始まっています(栗原潔) - エキスパート - Yahoo!ニュース

                                                              権利範囲の広い強力な特許を取るための最大のポイントはテクノロジの潮の変わり目でまだ世の中にアイデアが出尽くしていない時期に出願することに尽きます。たとえば、アップルはスマホのタッチUIというテクノロジ分野において強力な特許(たとえば、バウンスバック特許)を多数取得していますが、それはマウスからタッチUIというテクノロジの潮の変わり目において特許出願を積極的に行ったからに他なりません。逆に、今これからタッチUIという分野で強力な特許を取ろうと思っても、既に世の中にアイデアはあふれかえっていますので、それは不可能でないにせよ著しく困難です。 今、潮の変わり目にあるテクノロジといえば、ChatGPTなどの大規模言語モデル(LLM)をはじめとする生成AIがあるでしょう。生成AIそのものに関する特許としてはGoogleがかなり強力な特許を有していますが(別の機会に解説しようと思います)、生成AIの応

                                                                大規模言語モデル(LLM)の強力な応用特許の権利化が始まっています(栗原潔) - エキスパート - Yahoo!ニュース
                                                              • 1000億パラメータのLLM、AIスタートアップが公開 フルスクラッチで開発 「ハルシネーションを大幅抑止」

                                                                AIスタートアップ企業のストックマーク(東京都港区)は5月16日、1000億パラメータ規模の大規模言語モデル(LLM)を開発したと発表した。「Stockmark-LLM-100b」と名付けられたこのLMは、同社がフルスクラッチで開発したものでハルシネーション(AIがもっともらしいうそをつく現象)を大幅に抑えているのが特徴という。 同社は「公開されている既存のLLMモデルを用いずに、当社がフルスクラッチで開発した独自のLLM」と説明。独自に収集したビジネスドメインの日本語データを中心に事前学習させているため、日本語やビジネスドメイン、最新の時事話題に精通しているとしている。 ハルシネーションを抑えるため、答えられない質問には無理に回答せず「分からない」と答えるという。同社は「厳密さが求められるビジネスシーンにおいても信頼して活用できるモデルの開発に成功した」とし、独自LLMの性能をアピールし

                                                                  1000億パラメータのLLM、AIスタートアップが公開 フルスクラッチで開発 「ハルシネーションを大幅抑止」
                                                                • Optimizing your LLM in production

                                                                  Note: This blog post is also available as a documentation page on Transformers. Large Language Models (LLMs) such as GPT3/4, Falcon, and LLama are rapidly advancing in their ability to tackle human-centric tasks, establishing themselves as essential tools in modern knowledge-based industries. Deploying these models in real-world tasks remains challenging, however: To exhibit near-human text unders

                                                                    Optimizing your LLM in production
                                                                  • Meta、4000言語の話し言葉を理解する多言語LLM「MMS」をオープンソース化

                                                                    米Metaは5月22日(現地時間)、4000以上の音声言語を識別できる多言語大規模言語モデル「Massively Multilingual Speech」(MMS)のモデルとを研究コミュニティにオープンソースで公開したと発表した。 MMSプロジェクトでは、自己教師あり学習モデルの「wav2vec 2.0」、1100以上のラベル付き言語データ、約4000のラベルなし言語データのデータセットを使ってモデルを構築したという。4000以上の音声言語識別は既存技術の40倍の能力だとしている。 言語の音声データ収集に当たっては、多くの言語に翻訳されている聖書などの宗教文書の音声録音を活用した。1100以上の言語で新約聖書の朗読のデータセットを作成することで、言語ごとに平均32時間のデータを用意した。 プロジェクトの詳細については公式ブログを参照されたい。 「われわれの目標は、人々が好きな言語で情報に簡

                                                                      Meta、4000言語の話し言葉を理解する多言語LLM「MMS」をオープンソース化
                                                                    • GitHub - openai/evals: Evals is a framework for evaluating LLMs and LLM systems, and an open-source registry of benchmarks.

                                                                      Evals provide a framework for evaluating large language models (LLMs) or systems built using LLMs. We offer an existing registry of evals to test different dimensions of OpenAI models and the ability to write your own custom evals for use cases you care about. You can also use your data to build private evals which represent the common LLMs patterns in your workflow without exposing any of that da

                                                                        GitHub - openai/evals: Evals is a framework for evaluating LLMs and LLM systems, and an open-source registry of benchmarks.
                                                                      • LLM によるプログラムベース推論 / 2023.08.07 Geography&Language 勉強会 #4

                                                                        (slack)geographylanguage.slack.com(勉強会ページ)https://sites.google.com/view/geography-and-language/studygroup ※ 誤りや引用漏れがありましたらご指摘ください

                                                                          LLM によるプログラムベース推論 / 2023.08.07 Geography&Language 勉強会 #4
                                                                        • LangChain for LLM Application Development

                                                                          Learn LangChain directly from the creator of the framework, Harrison Chase Apply LLMs to your proprietary data to build personal assistants and specialized chatbots In LangChain for LLM Application Development, you will gain essential skills in expanding the use cases and capabilities of language models in application development using the LangChain framework. In this course you will learn and get

                                                                            LangChain for LLM Application Development
                                                                          • 画像分析機能を持つオープンソースLLM『LLaVA-1.5』登場。手持ちの画像を分析可能。GPT-4Vとの違い | AIDB

                                                                            関連研究(続きは記事末尾にあります) ■OpenAI、ChatGPTが画像を分析する『GPT-4V(ビジョン)』を発表。安全性、嗜好性、福祉機能を強化 ■Microsoftの画像セグメンテーション新技術「SEEM(Segment Everything Everywhere Model)」の凄さ、Meta AIのSAMとの違い 従来の課題 視覚情報の処理能力不足 従来のLLMは、言語タスクに対する能力は優れていましたが、多モーダル(視覚と言語)のアップデートはあまり行われていませんでした。要するに、視覚的な情報を処理する能力には限界がありました。 高性能な画像分析LLMの需要 多くの開発者や研究者が高性能な画像分析LLMを求めていましたが、これまでのところそのようなモデルは一般に提供されていませんでした。 これらの課題を解決するために、LLaVA-1.5が開発されました。このモデルは、視覚エ

                                                                              画像分析機能を持つオープンソースLLM『LLaVA-1.5』登場。手持ちの画像を分析可能。GPT-4Vとの違い | AIDB
                                                                            • ChatGPTなどLLMを使わずに自然言語でツールを操作する - きしだのHatena

                                                                              OpenAIのFunction Callingが出たときに、GPTを使って自然言語でツールを操作するというのをやったんだけど、この程度にGPT使う必要なくない?という感じもしたので、GPTなどLLM使わずに実装してみました。 LLM使わずに実現できることはLLM使わないほうがよさげ。 前回のブログ、これです。 こんな感じで動くようになっています。 ツールのテキスト操作にGPTなんかいらんかったんや! サクサク動くわ。 pic.twitter.com/JAD3grWJGx— きしだൠ(K1S) (@kis) 2023年7月1日 GPT4使ったときはこんな感じ OpenAIのFunction Callingでツール操作を試すやつ、GPT-4だとかなり文脈を理解してくれるし、位置関係も結構ただしく扱ってくれる。しかし遅い。 pic.twitter.com/nkijZpcnP6— きしだൠ(K1S

                                                                                ChatGPTなどLLMを使わずに自然言語でツールを操作する - きしだのHatena
                                                                              • OpenAI、Google、Anthropicの3つのAIに同じ質問をして、その結果を集約する「MAGI」システムを作る #役に立たないLLM|松xRのnote

                                                                                OpenAI、Google、Anthropicの3つのAIに同じ質問をして、その結果を集約する「MAGI」システムを作る #役に立たないLLM 新世紀エヴァンゲリオンという名作アニメに、MAGIというシステムが出てきます。主人公たちが属する組織の中枢システムを担っており、3つの独立した思考回路を持っていて決議する仕組みです。 オタクとしてはMAGIに憧れがあります。 最近、Google CloudのPaLM2、AnthropicのClaudeがそれぞれ日本でも使えるようになり、API経由で利用することが出来るようになりました。AnthropicのClaudeのAPIはAWSのBedrockから利用します。ここにOpenAIのGPT-3.5-Turbo、GPT-4を合わせれば、「それぞれ独立したAI」によるMAGIを作れそうだと思ったので、さっそくやってみることにしました。 準備私はWind

                                                                                  OpenAI、Google、Anthropicの3つのAIに同じ質問をして、その結果を集約する「MAGI」システムを作る #役に立たないLLM|松xRのnote
                                                                                • Google、「Googleアシスタント」をLLMで強化へ──Axios報道

                                                                                  米Googleは、生成AIを活用した機能で「Googleアシスタント」を強化する予定だと、米Axiosが7月31日(現地時間)、独自に入手したとするGoogleの従業員宛書簡に基づいて報じた。 「アシスタントのビジョンとチームの変更」という件名のこの書簡は、Googleアシスタント担当副社長のピーユシュ・ランジャン氏と製品管理ディレクターのジョン・デュケリス氏の連名で、「生成AIの大きな可能性を目の当たりにし、最新のLLM(大規模言語モデル)を活用するGoogleアシスタントがどのようなもになるかを探求する大きな機会があると考えている」と書いている。 モバイルに関しては、すでにその取り組みを開始しているという。 この取り組みを「迅速かつ集中的に実行するために」、組織変更を行うとしている。 「われわれは引き続きGoogleアシスタントに深く貢献しており、その明るい未来を楽観視している」と2人

                                                                                    Google、「Googleアシスタント」をLLMで強化へ──Axios報道