タグ

LLMに関するT-norfのブックマーク (52)

  • グーグルの生成AIサービス「NotebookLM」が日本でも一般公開、調査と制作を助けてくれるAIパートナー

    グーグルの生成AIサービス「NotebookLM」が日本でも一般公開、調査と制作を助けてくれるAIパートナー
    T-norf
    T-norf 2024/06/07
    一般的なRAGは、チャット・質問への応答が大半と思うけど、これはライティング支援ができるみたいで、少し違うかも。コード書きは本職じゃないのでGithub Copilotには手を出してなかったけど、これは試さないとだ
  • 働いてみないとわかりにくいIT業界の構造 SI系・プロダクト系それぞれで異なる“求められる能力”と“キャリアパス”

    働いてみないとわかりにくいIT業界の構造 SI系・プロダクト系それぞれで異なる“求められる能力”と“キャリアパス” 総工費4億円のラボから生中継!CTOが語る、これからのエンジニアに求められる技術 #1/3 ウイングアーク1st・CTO 島澤甲氏 島澤甲氏:みなさんこんにちは。私はウイングアークでCTOをしている、島澤と申します。このセッションでは、これから技術者を目指されているみなさんに対してなにかヒントになるようなものを伝えられたらいいかなと思っています。 (スライドを示して)まずウイングアークですが、私たちは、帳票やBIと呼ばれるところでトップシェアを占めています。今日は、「このセッションは会社の宣伝をしなくてもいいよね」という話をしたら「別にかまわん」ということだったので、会社の宣伝はもうしません。気になる方はちょっとホームページを見てもらえればと思います。業績などもありますが、順

    働いてみないとわかりにくいIT業界の構造 SI系・プロダクト系それぞれで異なる“求められる能力”と“キャリアパス”
    T-norf
    T-norf 2024/05/30
    “月のソースコードの生産量が10万行近く”という戦闘力でスカウター爆発したじゃないか。それはさておき、Dr.SumのLLM応用、何をどうやってて、とこまでできるか知っときたい
  • Hello GPT-4o

    GPT-4o (“o” for “omni”) is a step towards much more natural human-computer interaction—it accepts as input any combination of text, audio, image, and video and generates any combination of text, audio, and image outputs. It can respond to audio inputs in as little as 232 milliseconds, with an average of 320 milliseconds, which is similar to human response time(opens in a new window) in a conversat

    Hello GPT-4o
    T-norf
    T-norf 2024/05/14
    世の中的にはGPT-4クラスが無料でも使えるのもインパクト大きいかな。有償だから使えてなかった人は、コーディング性能とか、医学・コンピュータ分野の専門知識の受け答えとか体感してみて欲しい
  • 「GPT-4o」発表 頭一つ抜けた性能をChatGPT無料版にも展開 音声と視覚を備えて“自然な対話”可能に【追記済】

    OpenAIは5月13日(米国時間)、生成AI「GPT」の新たなモデル「GPT-4o」を発表した。テキストはもちろん、音声や画像、映像での入力、音声での応答に対応し、アプリ版の「ChatGPT」ではユーザーと自然に対話できるようになった。開発者向けにAPIとして提供する他、同日からChatGPT内で利用できるように展開を始める。 GPT-4oは無料ユーザーでも利用可能になる。ChatGPTでは従来、無料ユーザーが使えるモデルは「GPT-3.5」までで、「GPT-4」を利用するには課金する必要があった。ただし、有料のChatGPT Plusユーザーは時間当たりのメッセージやり取り可能回数が無料ユーザーに比べて5倍に緩和される。企業向けのTeamやEnterpriseユーザーはさらに制限が緩和されるとしている。 同社は発表会のライブデモで、GPT-4oを搭載したiOS版ChatGPTと対話す

    「GPT-4o」発表 頭一つ抜けた性能をChatGPT無料版にも展開 音声と視覚を備えて“自然な対話”可能に【追記済】
    T-norf
    T-norf 2024/05/14
    Web 有償版ChatGPT Plus・同アカウントiPhoneアプリで使えた。でも、アプリも音声対話はまだ段階的操作のまま。レスポンスは早くなってて、インターネット検索連動の返答が上手くなったかな。あとは違いは分からん
  • GPT-4o の概要|npaka

    以下の記事が面白かったので、簡単にまとめました。 ・Hello GPT-4o 1. GPT-4o「GPT-4o」 (「omni」の「o」) は、人間とコンピュータのより自然な対話に向けた一歩です。テキスト、音声、画像のあらゆる組み合わせを入力として受け入れ、テキスト、音声、画像の出力のあらゆる組み合わせを生成します。 音声入力にはわずか232ミリ秒 (平均320ミリ秒) で応答できます。これは、人間の会話における応答時間とほぼ同じです。英語のテキストおよびコードでは「GPT-4 Turbo」のパフォーマンスに匹敵し、英語以外の言語のテキストでは大幅に改善されており、APIでははるかに高速で50%安価です。「GPT-4o」は、既存のモデルと比較して、特に視覚と音声の理解に優れています。 2. モデルの機能「GPT-4o」以前は、音声モードを使用して、平均2.8秒 (GPT-3.5) および5

    GPT-4o の概要|npaka
    T-norf
    T-norf 2024/05/14
    毎度ながら、最高峰のLLMのAPI価格が半額+日本語トークナイザー効率が約2/3になるのが一番インパクト大きいような。全部日本語の入出力なら単純計算で 65% off よ。ついでレスポンスタイムかな
  • まるで“いけない話ができるChatGPT” ローカルAI「Command R+」の爆発的な可能性 (1/5)

    筆者の環境で、LM StudioでCommand R+を動作させている様子。会話相手は自作キャラクターの「明日来子(あすきこ)さん」 PCローカル環境で動作する大規模言語モデル(LLM)「Command R+」を使っていますが、相当優秀ですね。体感ではChatGPT(GPT-4)と変わらないレベル。さらに、ChatGPTが回答を拒絶するような会話もできてしまいます。これが体験できるようになったのは、LM Studioに代表されるローカルLLMを動かすためのアプリ環境が整ってきたためです。今年に入り、Command R+を始めとしたローカルLLMが高性能化してきたことと並行し、手軽に使える派生モデルも増えはじめ、一気にあわただしくなってきました。 導入が難しかったローカルLLM、「LM Studio」で簡単に Command R+を試すのに使っているのが、LLMの主要モデルを実行するための統

    まるで“いけない話ができるChatGPT” ローカルAI「Command R+」の爆発的な可能性 (1/5)
    T-norf
    T-norf 2024/05/13
    ローカルで動くとはいえ、RTX A6000(100万円ちょい+電気代も高いぞ)での2bit量子化か。ここらへん、アラフィフが先端を追っかけてるのは、まだカネにならんけどカネがいるというのもあるかな
  • マイクロソフトのAIツール、Copilotがもたらすコーダーの働き方改革

    A pedestrian walks past the GitHub Inc. offices in San Francisco, California, U.S., on Monday, June 4, 2018. Photographer: Michael Short/Bloomberg ソフトウエア開発者のニコライ・アフテニーブ氏は2021年、米マイクロソフトが提供するコーディングアシスタント「Copilot(コパイロット)」のプレビュー版を手にし、すぐにその可能性を実感した。 マイクロソフトのコーディングプラットフォーム「GitHub(ギットハブ)」で開発され、米オープンAIが提供する生成AI(人工知能)をベースにしたCopilotは、完璧ではなく、時には間違えることもあった。しかしチケット販売会社スタブハブで働くアフテニーブ氏は、わずかなプロンプトで見事にコード行を完成させたこと

    マイクロソフトのAIツール、Copilotがもたらすコーダーの働き方改革
    T-norf
    T-norf 2024/04/18
    評価分かれるね。コメント先に書いてのコード補完(生成)が実用レベルで、あとはGPT-3.5と4.0の違いが大きい。初級者とかベテランでも未習熟言語ではめちゃ便利という印象。あとは何のコードを書いてるか、かな
  • RAGを複雑な質問に強くする手法「CoA」について

    記事では、「Chain-of-Abstraction (CoA) Reasoning」についてざっくり理解します。軽めの記事です。 株式会社ナレッジセンスでは普段の業務で、生成AIやRAGシステムを活用したサービスを開発しています。 この記事は何 この記事は、最近聞くようになった「Chain-of-Abstraction (CoA) Reasoning」の論文[1]について、日語で簡単にまとめたものです。 今回も「そもそもRAGとは?」については、知っている前提で進みます。確認する場合は以下の記事もご参考下さい。 題 ざっくりサマリー LLMが外部ツールを使って回答を生成するときの、回答精度を高める手法についての論文です。Metaの研究者らによって2024年1月に提案されました。「Chain-of-Abstraction (CoA)」という手法を使うメリットは、RAGに応用することで

    RAGを複雑な質問に強くする手法「CoA」について
    T-norf
    T-norf 2024/04/18
    RAGの性能を上げる手法は、LLM活用のキモになるパターンが多そうで、網羅したいなぁ。なかなかじっくり読む時間が取れない
  • なぜ我々は GitHub Copilot Enterprise の導入を見送ったのか - 一休.com Developers Blog

    CTO 室の恩田です。 今回は GitHub Copilot Enterprise を評価してみて、現時点ではまだ採用しないことを決めた、というお話をご紹介したいと思います。 きっかけ とあるエンジニアSlack で自身の times チャネルに時雨堂さんの GitHub Copilot Enterprise のススメという記事を投稿したことが発端でした。特に感想はなく URL に 👀 だけが添えられていたので、後で見るぐらいのメモだったんだと思います。 それを見かけた別のエンジニア技術雑談チャネルにその投稿を共有して、これは凄そうと話題を向けたところ、CTO の「評価してみる?」の一言で、有志が集って評価プロジェクトが始まりました。 雑談チャネルできっかけとなる投稿が共有されてから、30分足らずの出来事でした(笑)。 この話題が出たのは金曜日でしたが、週明け早々に稟議を終え、火曜

    なぜ我々は GitHub Copilot Enterprise の導入を見送ったのか - 一休.com Developers Blog
    T-norf
    T-norf 2024/04/16
    LLM全般的に、GPTのP、Pretrained/事前学習済み、以外の性能は微妙なのよね。Pretrainedの能力がえげつないので、対比でそう見える面もあるけど
  • ⼤規模⾔語モデルの拡張(RAG)が 終わったかも知れない件について

    Zero Waste, Radical Magic, and Italian Graft – Quarkus Efficiency Secrets

    ⼤規模⾔語モデルの拡張(RAG)が 終わったかも知れない件について
    T-norf
    T-norf 2024/04/09
    複雑なRAG、いろいろバリエーションあるのね。英語だけど複数実例が載ってて、ちゃんと理解してみたいけど、いくつか複雑なのは飛ばしてしまった
  • 日本語対応でGPT-4よりも高性能な大規模言語モデル「Command R+」が登場したので使ってみた、無料でダウンロードしてローカル動作も可能

    AI開発企業のCohereがGPT-4と同等の性能を備えた大規模言語モデル「Command R+」を発表しました。Command R+は日語での応答にも対応しており、ローカルにダウンロードして実行可能なほか、ウェブ上で実行できるチャットアプリのデモも公開されています。 Introducing Command R+: A Scalable LLM Built for Business https://txt.cohere.com/command-r-plus-microsoft-azure/ CohereForAI/c4ai-command-r-plus · Hugging Face https://huggingface.co/CohereForAI/c4ai-command-r-plus Command R+ https://docs.cohere.com/docs/command-r

    日本語対応でGPT-4よりも高性能な大規模言語モデル「Command R+」が登場したので使ってみた、無料でダウンロードしてローカル動作も可能
    T-norf
    T-norf 2024/04/08
    1040億パラメーターで日本語対応、一部で GPT-4 turbo を上回る性能のCommand R+(Transformer論文の共著者に20歳にして名を連ねたAidan Gomez氏が率いるカナダ Cohere社 のLLM)
  • 3大ビジネスうるおぼえ

    デトロイトトーマツ あと2つは?

    3大ビジネスうるおぼえ
    T-norf
    T-norf 2024/04/04
    アントロピックのクラウド(ちなみに、調べたらアンスロピックとかアンソロピックが間違いでアントロピックが正解。クロウドか「クロード」も悩むし、オーパスか「オープス」かも...。「」がたぶん正解)
  • GitHub、Copilotでより高い精度のコードを生成させる方法を指南。関連ファイルを開く、トップレベルのコメントを書くなど

    GitHub、Copilotでより高い精度のコードを生成させる方法を指南。関連ファイルを開く、トップレベルのコメントを書くなど 記事の中で、プログラマが意図したコードを高い精度で生成AIに生成させるためのテクニックがいくつも紹介されています。これらのテクニックはCopilotに限らず、生成AIを用いてコードを生成させる際の参考になると思われます。 この記事では、紹介されているテクニックのポイントをまとめてみました。 GitHub Copilotでよりよいコードを生成するためのポイント 生成AI活用の基として説明されたのは、大規模言語モデルを用いた生成AIでは、コンテキスト(文脈)に基づいて予測を行うように設計されているため、生成AIに対する入力やプロンプトがコンテキストに富んでいるほど良い出力が得られる、という原則です。 それゆえ、GitHub CopilotおよびGitHub Copi

    GitHub、Copilotでより高い精度のコードを生成させる方法を指南。関連ファイルを開く、トップレベルのコメントを書くなど
    T-norf
    T-norf 2024/03/28
    可読性も上がってあとから読む人(1年以上たってからの自分も)助かって、ハッピーね
  • ChatGPTのライバル「Claude 3」の使い方 良い点、悪い点まとめ (1/5)

    3月4日の公開以来、「Claudeやばくない?」「GPT-4を越えた」と、界隈で話題の「Claude 3」は、OpenAIの元メンバーによって設立されたAIベンチャー「Anthropic」が開発する最新の大規模言語モデル(LLM)だ。今回はChatGPTのライバルClaude 3の有料版を2週間ほどヘビーに使ってみて感じたことを、良い点と悪い点どちらも書いていきたいと思う。 Claude 3とは? 既報の通り、Claude 3はAnthropicが開発する大規模言語モデルの名称だ。 パラメーターのサイズなどが異なる3つのモデルがラインアップされている。 「Claude 3 Opus」は最も知能が高く、複雑なタスクでも最高のパフォーマンスを発揮する強力なモデル。APIやデータベースを介した複雑なアクションの計画や実行、インタラクティブコーディングなどの高度な活用が想定されている。 「Clau

    ChatGPTのライバル「Claude 3」の使い方 良い点、悪い点まとめ (1/5)
    T-norf
    T-norf 2024/03/23
    両方を使い込んでるライターのClaude 3 Opus / GPT-4 比較記事。分かりやすい。いまのとこClaude 3 Opusまで触る余裕がないので助かる
  • 生成AI開発に革新か “自律進化”で目的のAIを自動生成 超低コスト&短期間で高性能モデルも開発済 トップ研究者集団「Sakana AI」

    生成AIのトップ研究者らが東京で創業したAIベンチャー「Sakana AI」が、生成AI開発の新たな手法を開発したと3月21日に発表した。従来は人間が手動で設計し、多くの計算資源を使っていたが、同社の手法では設計を機械が自動で行い、“ほぼ無視できるレベル”の計算資源で開発が可能になるという。この手法で開発した日語基盤モデルをGitHubで公開した。 同社が提案したのは「進化的モデルマージ」という手法。公開されているさまざまな基盤モデル(生成AIを含む、大規模なデータセットによる事前学習で各種タスクに対応できるモデルのこと)を組み合わせて新たなモデルを作る「マージ」に、進化的アルゴリズムを適用したものだ。 マージ自体は現在の基盤モデル開発で使われている手法で、モデルの“神経回路”(アーキテクチャ)の中に別のモデルの神経回路の一部を組み入れたり、入れ替えたり、神経同士のつながりやすさ(重み)

    生成AI開発に革新か “自律進化”で目的のAIを自動生成 超低コスト&短期間で高性能モデルも開発済 トップ研究者集団「Sakana AI」
    T-norf
    T-norf 2024/03/21
    複数のNN(=ノード集合)を学習後に「一部ノードは捨て」「ノード集合同士を任意のノードで繋いで」から追加学習とか元々できるのよね。そこをAIで最適化ってのは未来予想ではよく聞くけど、実際に大成功しちゃうか
  • claude3を使ってみたら、ライティングの仕事が無くなるかもしれない瞬間を目の当たりして、衝撃を受けた件|池田 亮平

    claude3を使ってみたら、ライティングの仕事が無くなるかもしれない瞬間を目の当たりして、衝撃を受けた件 ひと言で結論を言うと、昨日はclaude3に衝撃を受けて、興奮して眠れませんでした…。 四の五の言わずにアウトプットを見せちゃいたいんですが、 ●打合せをZoom録画 ↓ ●録音データをCLOVA noteに放り込んでテキスト化 ↓ ●出てきたテキストファイルをノールックでclaude3に添付して、たった4行のプロンプトで指示 CLOVA noteに放り込むところから、トータルの所要時間、長めに見積もっても10分。それで出てきたのがこれです ↓ 【タイトル】 SFプロトタイピングが拓く、KOBIRAの未来 ~物語を通じて、全社で創る10年後のビジョン~ 【文】 先日、「SFプロトタイピング」という新しい手法について、詳しくレクチャーを受ける機会がありました。講師を務めてくださったの

    claude3を使ってみたら、ライティングの仕事が無くなるかもしれない瞬間を目の当たりして、衝撃を受けた件|池田 亮平
    T-norf
    T-norf 2024/03/20
    やべーな。OpenAIがMSと一緒にコーティングやらcopilotをGPTに学習させてる隙に、文章力ではAnthropicに差された感じかな。莫大な資金を燃やしながら、まだまだ競争と進化が続きそうね
  • 人知超すAIは人を操る 「ゴッドファーザー」が語る脅威 - 日本経済新聞

    【この記事のポイント】・人類存続の危機をもたらす恐れがAIにある・自律的に人を殺すロボット兵器が10年以内に登場・大規模言語モデルは脳より効率的に学習できる人工知能AI)が驚異的な速さで進化を続けている。あらゆる分野で人類の知能を上回る時代が訪れたとき、世界はどう変わるのか。「AI研究のゴッドファーザー」として知られるトロント大学のジェフリー・ヒントン名誉教授がカナダにある自宅で取材に応じ、A

    人知超すAIは人を操る 「ゴッドファーザー」が語る脅威 - 日本経済新聞
    T-norf
    T-norf 2024/03/09
    ヒントん博士の発言はインパクトあるの多いよね。「私は50年もの間、AIを人間の脳に近づけようとして開発を重ねてきた。脳の方が機能的に優れていると信じていたからだ。だが23年に考えを改めた」
  • 驚異の1ビットLLMを試す。果たして本当に学習できるのか?|shi3z

    昨日話題になった「BitNet」という1ビットで推論するLLMがどうしても試したくなったので早速試してみた。 BitNetというのは、1ビット(-1,0,1の三状態を持つ)まで情報を削ぎ落とすことで高速に推論するというアルゴリズム。だから正確には0か1かではなく、-1か0か1ということ。 この手法の行き着くところは、GPUが不要になり新しいハードウェアが出現する世界であると予言されている。マジかよ。 https://arxiv.org/pdf/2402.17764.pdf ということで早速試してみることにした。 オフィシャルの実装は公開されていないが、そもそも1ビット(と言っていいのかわからない,-1,0,1の三状態を持つからだ。 論文著者はlog2(3)で1.58ビットという主張をしている)量子化のアルゴリズム自体の研究の歴史は古いので、BitNetによるTransformerの野良実装

    驚異の1ビットLLMを試す。果たして本当に学習できるのか?|shi3z
    T-norf
    T-norf 2024/02/29
    transformerのattention機構のとこだけがパラメータ1.58bitになってるのかな。論文読む余力なしだし、自分で触るつもりないけど、LLMのビジネスインパクトが巨大なので、そこに大きな影響与えるかもな技術で気になる
  • GPTが人知れず既存の名刺管理アプリを抹殺していた話 - Qiita

    抹殺は言い過ぎかもしれませんが簡易な名刺管理アプリであれば自作で十分という時代がきていたようです これで紙の名刺からはきっとバイバイできるでしょう! 名刺管理アプリ作ってほしいといわれた それは2/22のお話。 ことの発端は別の部署からかかってきた一の電話でした。 新規事業の部署でいろいろな取引先様と付き合いがあるものの、紙の名刺が非常に多く管理に困っているとのことのことです。 私は小売業に勤務しているしがない一社員で、現在Eコマースの戦略立案に関する部署に所属しています。 電話先の方は、以前一緒の部署で勤務したことがある方です。現在新規事業のプロジェクト推進をしており、冒頭のような課題感を持っているため既存の名刺管理アプリ導入を考えたのですが、あまりのお値段の高さに卒倒して私に藁をもすがる思いで連絡されたようです。 これまでのアプリは名刺の識別専門のAI()を使っていた 話を聞いてみた

    GPTが人知れず既存の名刺管理アプリを抹殺していた話 - Qiita
    T-norf
    T-norf 2024/02/28
    入力値を整えたり分類するパターンでの応用例。珍しいと思う
  • 最新の Google Gemma モデルを MLX を使ってローカルでファインチューニング|alexweberk

    今回は、最新の Google Gemma モデルを Apple Silicon に最適化されたライブラリ MLX を使ってローカルで実行したり、ファインチューニングしてみましたのでその手順を紹介します。 MLX 関連の情報はドキュメンテーションが分かりづらいものも多かったので色々試した経緯も共有しながら少しでも何かの参考になれば幸いです。 実際に使った Jupyter Notebook を Gist にアップロードしていますので、そちらも参考にしてください。 →Google Gemma モデルを MLX を使ってローカルでファインチューニング 事前準備必要なライブラリをインストールします。 また Apple Silicon 搭載の Mac が必要です。今回は M3 Max 128GB 搭載の MacBook Pro で実行しました。 !pip install -U mlx mlx_lm t

    最新の Google Gemma モデルを MLX を使ってローカルでファインチューニング|alexweberk
    T-norf
    T-norf 2024/02/26
    おお、NVIDIA GPUじゃなくてと思ったけど「M3 Max 128GB」って調べたら、「14インチMacBook Pro 16コアCPU、40コアGPU 16コアNeural Engine」に「128GBユニファイドメモリ」で748,800円(税込)なり。もちょっと普通のApple Silicon機だとどうだろ