並び順

ブックマーク数

期間指定

  • から
  • まで

1 - 40 件 / 73件

新着順 人気順

LLMの検索結果1 - 40 件 / 73件

  • 無料で使える最高のAIノート『NotebookLM』使い方と活用事例|AI-Bridge Lab こば

    こんにちは!最近、ChatGPTと話しすぎてAI風の口調がうつってきたAI-Bridge Labのこばです!👋 今回の記事はGoogleのサービス『NotebookLM』(ノートブックLM)について 1.NotebookLMの概要 2.使い方 3.具体例として過去のnote記事を全部読ませた結果どうなったか この3点を分かりやすくご紹介します! 先に結論だけお伝えするとかなり実用性が高くオススメのツールです! そしてこの記事を読んで頂ければご自身での活用法が想像できるようになると思いますので、ぜひ最後まで読んで頂けますと幸いです! 1.NotebookLMの概要公式サイト:https://notebooklm.google.com/ NotebookLMは、Googleが提供する生成AIサービスで、ユーザーのメモ書きやアップロードした資料を基に情報を整理し、質問に答えることができる革新的

      無料で使える最高のAIノート『NotebookLM』使い方と活用事例|AI-Bridge Lab こば
    • めちゃ便利になった 無料版「ChatGPT」新機能の使い方まとめ【最新版】 (1/5)

      OpenAIは5月30日、同社のチャット型AI「ChatGPT」無料版ユーザーに向け、制限付きながら最新の大規模言語モデル「GPT-4o」および、これまで有料版ユーザーしか利用できなかった多くの機能を公開した(発表時のニュース記事)。 情報がとても多いので、今回の変更で無料版ユーザーは「なにができるようになったか」、そして「なにができないのか」を使い方中心にまとめた。 1. GPT-4oは回数制限あり チャット型AIアプリの心臓とも言える大規模言語モデル(LLM)、これまで無料版ユーザーは「GPT-3.5」という旧世代モデルしか利用できなかったが、今回の変更で回数制限(具体的な回数は明記されていない)はあるものの、最新モデルのGPT-4oが使えるようになった。 GPT-4oの利用に特に設定などは必要なく、無料アカウントにログインして普通に質問すればOK(使い方はちょっとわかりにくいのでこち

        めちゃ便利になった 無料版「ChatGPT」新機能の使い方まとめ【最新版】 (1/5)
      • グーグルの生成AIサービス「NotebookLM」が日本でも一般公開、調査と制作を助けてくれるAIパートナー

          グーグルの生成AIサービス「NotebookLM」が日本でも一般公開、調査と制作を助けてくれるAIパートナー
        • GPT-4oをOCRとして使う - Re:ゼロから始めるML生活

          OpenAIからChatGPT-4oが発表されましたが、皆さんガンガンつかっていますでしょうか? さて、このChatGPT-4oですが、テキスト以外のデータも使用できるようになっているという特徴があります。 普通にテキストでのやり取りをしつつも画像データを扱えるということで、「実はこれいい感じのOCRとして使えるんじゃね?」って思っちゃったわけです。 ということで、今回はChatGPT-4oを使ってOCRを使うとどんなもんなのかやってみたいと思います。 やりたいこと やってみる とりあえずやってみる 請求書 名刺 参考文献 感想 やりたいこと 今回やりたいことはOCRです。早い話が画像ファイルを突っ込んでテキストを読み取りたいって感じです。 ただ、当たり前のようにOCRって言葉を使用していますがOCRって結構奥が深いです。 mediadrive.jp 単純に画像から文字を見つけて対応するテ

            GPT-4oをOCRとして使う - Re:ゼロから始めるML生活
          • 自分だけの信頼できるAIへ グーグル「NotebookLM」公開

              自分だけの信頼できるAIへ グーグル「NotebookLM」公開
            • ChatGPTでデータ分析、生成AIで「文系社員」が「分析官」に

              ◎「文系社員」でもデータ分析できる生成AIマニュアル by OUTPUT CAMP meets AI◎ 「イベントアンケートを取ったが、集計する時間がない」「販売データを収集したものの、分析手法が分からない」 文系のビジネスパーソンにとってデータ分析は、「やったほうが良さそうだが後回しにしてしまう」プラスアルファの仕事だ。大義名分がなければ他部署に依頼するのも難しい。 そこで頼れる相棒となるのが、生成AI(ジェネレーティブAI)だ。 AIプロピッカーの三菱総合研究所・比屋根 一雄さんはこう予測する。 「みんながミクロな意思決定に生成AIを使って、少しでも良い意思決定ができるようになると、世の中全体がデータに基づく合理的で無駄の少ない仕事をできるようになる。壮大なことを言えば、低いと言われている日本の生産性が、少しでも上がるのではないかという期待もしています。」 では、具体的にどの生成AIツ

                ChatGPTでデータ分析、生成AIで「文系社員」が「分析官」に
              • 「AIイラストって絵の勉強になる…?」取材を受けて考えたあれこれ|賢木イオ

                こんにちは、AI絵をやってたらいつのまにか人並みに絵が描けるようになってたおじさんです。前回の記事が微妙にバズったところ、美術関係の教育者の方から「AIで絵を学ぶのってどういう感じですか?うちの学生にもできますか?」というお問い合わせを相次いで頂きまして、今日は質問にお答えする中で考えたことをAI技術の進歩の振り返りとともに記事にしてみようと思います。 前回の記事( ▲ )を書いたのが今年3月のこと。その後、美術系の大学と専門学校、予備校の方から別々にDMを頂きまして、それぞれウェブインタビューのような形で1~2時間ほどお話ししました。インタビューの内容は、おおむねどの方も「これからの世代に美術を教える上で、画像生成AIについて触れないわけにはいかない。どのような距離感で扱えばよいのか決めかねており、実際に体験しているユーザーに話を聞いてみたい」という趣旨だったかと思います。 インタビュー

                  「AIイラストって絵の勉強になる…?」取材を受けて考えたあれこれ|賢木イオ
                • Open WebUI (Formerly Ollama WebUI) がすごい - Qiita

                  Open WebUIを使ってみました。 https://openwebui.com/ 当初は「Ollama WebUI」という名前だったようですが、今はOpen WebUIという名前に変わっています。Ollama専用じゃなくなったということでしょう。OpenAIに対応済みです。 早速使ってみました。もちろんBedrockで。 6/11 続編を書きました。 環境構築 Dockerですんなり構築です。Bedrockに対応はしてないので、「LiteLLM」を使って対応させます。 環境変数でこのあたりを指定 Ollamaを無効化 LiteLLMのエンドポイントをOpenAIのエンドポイントとして登録 APIキーを登録(LiteLLMとの通信には不要ですが、未指定だとOpen WebUIが正しく動作しませんでした) services: open-webui: image: ghcr.io/open-

                    Open WebUI (Formerly Ollama WebUI) がすごい - Qiita
                  • アップル、待望のAIシステム発表へ-WWDCでの注目点

                    Apple’s Tim Cook and Craig Federighi at last year’s WWDC. Photographer: Philip Pacheco/Bloomberg 米アップルは通常、新しい製品カテゴリーに最初から飛びつくことはしない。スマートフォンの「iPhone」、腕時計型端末「Apple Watch」、複合現実(MR)ヘッドセット「Vision Pro」もそうだった。すでに立ち上がっていた分野に製品を投入し、自らの足跡を残す方法を見つけてきた。 人工知能(AI)分野でもそれをしようとしているようだ。生成AIの熱狂が始まってから2年近くが過ぎた今、この技術に関するビジョンを打ち出す準備を進めている。米太平洋時間10日午前10時(日本時間11日午前2時)に開幕する世界開発者会議(WWDC)で同社は、主要なアプリや機能にAIを深く統合する計画を発表するとみられて

                      アップル、待望のAIシステム発表へ-WWDCでの注目点
                    • ChatGPTプログラミングのすすめ

                      ChatGPTなどの大規模言語モデル (Large Language Model; LLM) にプログラミングやリファクタリングをさせる場合、目的に合ったものが作られているかを何らかの方法で検証する必要がある。 プログラムの正しさを完全に保証する方法はないが、ある程度の正しさを継続して担保するための方法を探ってみたので以下にまとめた。 ポイントは、ChatGPTの生成したプログラムの検証にもやはりChatGPTの力を借りることである。 実行可能性と入出力のチェック プログラムを生成するタスクである場合、いつでも「実行できるか?」というチェックが可能である。これは自然言語の生成と大きく異なる点だろう。実行可能性を確かめることは最低限のチェック項目になる。 エラーが出力された場合、自力で修正するか、もしくは、エラーの内容をChatGPTに提示して修正を依頼し、再度実行可能かを確かめる。 入力・

                        ChatGPTプログラミングのすすめ
                      • 無料で自分専用のAIを日本語のウェブサイトやファイルを指定して作れるGoogleのAIサービス「NotebookLM」の使い方レビュー

                        GeminiやPaLM 2といった大規模言語モデルを使って任意のテキストの要約や提案をしてくれるGoogleのメモ作成アプリ「NotebookLM」が、日本語を含む200以上の国や地域に対応しました。記事作成時点では試験的に無料提供されているとのことで、実際に「NotebookLM」を使ってみました。 NotebookLM | Note Taking & Research Assistant Powered by AI https://notebooklm.google/ NotebookLM goes global with Slides support and better ways to fact-check https://blog.google/technology/ai/notebooklm-goes-global-support-for-websites-slides-fac

                          無料で自分専用のAIを日本語のウェブサイトやファイルを指定して作れるGoogleのAIサービス「NotebookLM」の使い方レビュー
                        • Googleの「Gemini 1.5 Pro」採用メモアプリ「NotebookLM」、日本でも利用可能に

                          Gemini 1.5 Proのマルチモーダル機能により、ソース内の画像やチャートに関する質問にも応える。 ソースを選択すると、データに基づく要約を表示し、その下のプロンプト枠で質問できるようになる。回答の文末には数字のついたラベルが表示され、ラベルにカーソルを合わせるとその文の根拠となるソースの部分が表示される。 また、ソースに基づいて、FAQ、ブリーフィング資料、学習ガイドなどの形式に変換する機能も追加された。 上の画像は、本稿筆者がNotebookLMに関するGoogleの2件の公式ブログのテキストと、アイティメディアのGoogle I/Oの記事のURLをソースとして指定したものだ。日本語設定のGoogleアカウントでは回答が日本語で表示されるが、日本語の記事へのURLの内容は元記事がシフトJIS形式の日本語テキストをUTF-8エンコーディングとして解釈されてしまったために文字化けして

                            Googleの「Gemini 1.5 Pro」採用メモアプリ「NotebookLM」、日本でも利用可能に
                          • 超長くてたくさんの資料も放り込めば、まとめてブレストにも付き合ってくれる有能助手「NotebookLM」の始め方(Google Tales) | テクノエッジ TechnoEdge

                            IT系海外速報を書いたり、翻訳を請け負ったりしています。初めてのスマートフォンはHTC Desire。その後はNexus 5からずっとGoogleさんオリジナルモデルを使っています。 Googleが久しぶりにわくわくするものを公開してくれました。その名は「NotebookLM」。Googleは“バーチャルリサーチアシスタント”だと紹介しています。 昨年7月に米国で利用可能になったものが、やっと日本でも使えるようになりました。名前からはいまひとつピンときませんが、使っているうちにじわじわと凄さが伝わってきます。 大雑把に言うと、自分が理解したいことに関連する情報を集めてNotebookLMに「ソース」として投げ込むと、それをもぐもぐ咀嚼して理解して「何でも聞いてください」状態になるのです。 (▲イラスト:ばじぃ) 記事を書くときは、複数の公式ブログやら過去のイベントの基調講演の動画やら自分で

                              超長くてたくさんの資料も放り込めば、まとめてブレストにも付き合ってくれる有能助手「NotebookLM」の始め方(Google Tales) | テクノエッジ TechnoEdge
                            • Googleが開発したPythonのUIフレームワーク「Mesop」の特徴を開発チームが解説

                              Googleのチームが開発したPython用のUIフレームワーク「Mesop」の特徴や使い方について、開発チームがブログに投稿しています。 Why Mesop? - Mesop https://google.github.io/mesop/blog/2024/05/13/why-mesop/ 多くのPython用UIフレームワークは簡単に使い始められるものの、標準的な使用方法を超えてカスタマイズを行おうとするとJavaScriptやCSS、HTMLの詳しい知識が必要です。MesopはPython内で動作を完結させることでよりPython開発者にとって扱いやすいUIフレームワークになっています。 MesopはコンポーネントベースのUIフレームワークで、UI全体がコンポーネントと呼ばれるブロックを積み重ねて作成されています。Pythonの関数を呼び出すのと同じ要領でMesopのコンポーネントを

                                Googleが開発したPythonのUIフレームワーク「Mesop」の特徴を開発チームが解説
                              • AI時代に一人勝ち。NVIDIAの「CUDA」がIntelやAppleを蹴散らし業界の“実質的なスタンダード”になった背景を中島聡が徹底解説 - まぐまぐニュース!

                                空前のAIブームの中にあって、その開発の現場で「一人勝ち」とも言うべき圧倒的なシェアを誇っているNvidia(エヌビディア)のGPU向け開発環境「CUDA」。IntelやAppleといったライバルたちを尻目に、いかにしてCUDAはトップに登り詰めたのでしょうか。今回のメルマガ『週刊 Life is beautiful』では世界的エンジニアとして知られる中島聡さんが、CUDA誕生の経緯から業界の「事実上の標準」となるまでを詳しく解説。さらにMicrosoftが5月20日に発表した「Copilot+PC」に関して、中島さんが注目したポイントを記しています。 ※本記事のタイトル・見出しはMAG2NEWS編集部によるものです/原題:NvidiaのCUDAが今の地位を築いた経緯 プロフィール:中島聡(なかじま・さとし) ブロガー/起業家/ソフトウェア・エンジニア、工学修士(早稲田大学)/MBA(ワシ

                                  AI時代に一人勝ち。NVIDIAの「CUDA」がIntelやAppleを蹴散らし業界の“実質的なスタンダード”になった背景を中島聡が徹底解説 - まぐまぐニュース!
                                • OpenAIがGPT-4の思考を1600万個の解釈可能なパターンに分解できたと発表

                                  GPT-4などの大規模言語モデルは非常に高い性能を有していますが、各モデルがどのような思考を経て応答を出力しているのかは開発者ですら把握できていません。新たに、OpenAIが大規模言語モデルの思考を読み取る手法を開発し、GPT-4の思考を1600万個の解釈可能なパターンに分解できたことを発表しました。 Extracting Concepts from GPT-4 | OpenAI https://openai.com/index/extracting-concepts-from-gpt-4/ Scaling and evaluating sparse autoencoders https://cdn.openai.com/papers/sparse-autoencoders.pdf 一般的なソフトウェアは人間の設計に基づいて開発されているため、各機能の仕組みを理解した上で機能を修正したり安

                                    OpenAIがGPT-4の思考を1600万個の解釈可能なパターンに分解できたと発表
                                  • 10年前、150万円で買ったNVIDIA株が4億円になった人の話→「私なら10倍くらいで手放してしまう…」

                                    FabyΔ @FABYMETAL4 メタラー兼業投資家。2013年にNVIDIA $NVDA に150万円投資し10年間ガチホ中。2024年に生成AIの登場で 150万円→4億円 (280倍) を達成。米国企業決算、 AI技術、Tech業界、特にNVIDIAに関する発信をしています。たまにメタル界隈にPOPします🤘 FabyΔ @FABYMETAL4 本日、ガチホ10年目のNVIDIAが150万円→4億円(280倍)を達成しました。NVIDIAには感謝の一言に尽きます。ありがとう $NVDA pic.twitter.com/WEnJm1Ks8K x.com/fabymetal4/sta… 2024-06-06 05:46:25 FabyΔ @FABYMETAL4 本日、保有10年目のNVIDIAが 円換算で150万円→3億円(200倍)となりました。 先日のGTCの基調講演の内容も素晴ら

                                      10年前、150万円で買ったNVIDIA株が4億円になった人の話→「私なら10倍くらいで手放してしまう…」
                                    • Doing RAG? Vector search is *not* enough

                                      I'm concerned by the number of times I've heard, "oh, we can do RAG with retriever X, here's the vector search query." Yes, your retriever for a RAG flow should definitely support vector search, since that will let you find documents with similar semantics to a user's query, but vector search is not enough. Your retriever should support a full hybrid search, meaning that it can perform both a vect

                                        Doing RAG? Vector search is *not* enough
                                      • Googleマップの「タイムライン」機能、ブラウザ版が廃止に 「不便になる」などの声も

                                        米Googleは、Webブラウザ版Googleマップの「タイムライン」機能を廃止する。タイムラインは、自分の移動履歴を記録できる機能で、これまでは使用する位置情報データをGoogleのサーバに保存していた。今後、データが各スマートフォンに直接保存されるようになるのに伴い、PCなどWebブラウザ版Googleマップでのタイムライン機能の利用ができなくなる。 仕様の変更についてはGoogleマップアプリの全てのユーザーに段階的にリリースし、利用アカウントでアップデートが可能になると通知が届くという。Googleマップのヘルプコミュニティーによると、機能を利用する場合はデータの保存期間を指定し、タイムラインを「このままオンにする」と設定。これまでの移動履歴については、データをエクスポートし、スマートフォンに取り込む必要がある。 通知に従って設定し、データをスマートフォンに移動した後は、ブラウザ版

                                          Googleマップの「タイムライン」機能、ブラウザ版が廃止に 「不便になる」などの声も
                                        • ローコードLLMアプリ開発環境「Dify」を使って、SynologyのNAS上で動くAIチャットを作る【イニシャルB】

                                            ローコードLLMアプリ開発環境「Dify」を使って、SynologyのNAS上で動くAIチャットを作る【イニシャルB】
                                          • 生成AIの台頭に伴うABCにおけるルール変更について - AtCoder

                                            現在、ABCにおいて、生成AIを利用して問題を解くユーザが一定数存在し、競技性が少し失われ、レーティングの信頼性が減少しております。 生成AIは、現在のプログラミング環境から切り離すことは非常に難しく、一括禁止をするべきものではありません。ですが、生成AIに問題を解かせるだけの行為は、競技としても、ITエンジニアとしての能力証明としても価値があるとは言い難く、AtCoderとして禁止するべきだと考えております。 ## ルール 詳細なルールは以下のページをご確認ください。 [AtCoder生成AI対策ルール - 20240607版](https://info.atcoder.jp/entry/llm-abc-rules-ja) ルールの概要を説明すると、 - AtCoderから提供される問題文のテキストや画像を、直接生成AIなどのプログラムに与えることを禁止する - AtCoderの問題文を

                                              生成AIの台頭に伴うABCにおけるルール変更について - AtCoder
                                            • 自然言語とVision&Language

                                              東京大学大学院の2024年度講義「知能情報論」で使用した資料です. Vision&Language関連の研究について,深層学習初期から大規模モデルにいたるまでを概観しています. なお,資料作成時期は2024年5月下旬であり,内容はその時点で発表されていた研究等に基づいています.

                                                自然言語とVision&Language
                                              • LLM にコードを「差分」で書き換えさせるためのアイデア

                                                既存の LLM コード生成の問題 LLM は行カウントやワードカウントが苦手。 例えば自分は SourceMap を扱うコードのテストを書かせようとしたが、モックデータの line:column がガバガバな位置を指してまともにテストにならない。行カウント/ワードカウントができないのはつまり diff がうまく生成できない。 これらの問題があって、コードを生成するパイプラインを組む場合、 全文出力が主流になっている。 ここで何が問題になるかというと、コードが膨らんで来た時に、(書き変える対象が一部だとしても)生成が顕著に遅くなる。うまく生成できなかった時にリトライを繰り返すと、問題がさらに悪化する。 改善手法の提案: 明示的な Line Number の付与 最近の LLM は入力ウィンドウがある程度大きくても、そこそこの速度で応答する。(お金はかかるが...) 問題は生成速度にある。特に

                                                  LLM にコードを「差分」で書き換えさせるためのアイデア
                                                • IQ100超えを達成したAIモデルのClaude 3は「いい性格」を持つようにトレーニングされている

                                                  元OpenAIのエンジニアが設立したAIスタートアップのAnthropicは、大規模言語モデル(LLM)ベースのチャットAIである「Claude」を開発しており、2024年3月にリリースされた「Claude 3」は推定IQが人間の基準値である「100」を上回ったとして注目を集めています。そんなAnthropicが、「AIモデルに有益な性格特性を持つようにトレーニングする」という試みについて報告しました。 Claude’s Character \ Anthropic https://www.anthropic.com/research/claude-character Exploring Claude 3's Character: A New Approach in AI Training - Blockchain.News https://blockchain.news/news/expl

                                                    IQ100超えを達成したAIモデルのClaude 3は「いい性格」を持つようにトレーニングされている
                                                  • 【Phi-3-Medium】GPU2台構成でローカルLLMを動かす【Ubuntu24】

                                                    はじめに GMO NIKKOの吉岡です。 みなさん、生成AIは活用してますか? ChatGPTに始まり、Claude3やGeminiなど、実用的なAIがどんどん出てきてますね。 自分も使ってはきましたが、課金が気になってしまいます。 これではサービスに組み込むことは難しいですよね。 そのためローカルで動くLLMを追ってきましたが、今年に入って実用的な日本語を返すことができるモデルがいくつか出てきているので、サーバー構成からインストール方法、LLMの起動まで紹介しようと思います。 ローカルLLMを動かす上で一番重要なのはGPUのVRAMです。 LLMは7B、13B、70Bモデルが多いですが、量子化しない場合、必要なVRAM容量は動かすモデルの大体2倍なので、13Bモデルでは26GのVRAMが必要です。 NVIDIAのGPUを使ったCUDAが前提になっているのですが、一般向けでは24Gモデルが

                                                      【Phi-3-Medium】GPU2台構成でローカルLLMを動かす【Ubuntu24】
                                                    • ElasticsearchによるZOZOTOWNへのベクトル検索の導入検討とその課題 - ZOZO TECH BLOG

                                                      こんにちは。検索基盤部の橘です。ZOZOTOWNでは、商品検索エンジンとしてElasticsearchを利用し、大規模なデータに対して高速な全文検索を実現しています。 Elasticsearchに関する取り組みは以下の記事をご覧ください。 techblog.zozo.com 検索基盤部では、ZOZOTOWNの検索結果の品質向上を目指し、新しい検索手法の導入を検討しています。本記事ではベクトル検索と呼ばれる検索手法に関して得た知見を紹介します。 ※本記事はElasticsearchバージョン8.9に関する内容となっています。 目次 目次 ベクトル検索とは ベクトル検索に期待すること Elasticsearchを使用したベクトル検索の導入 導入の簡略化 デプロイ可能な埋め込みモデル ベクトル検索のクエリ ハイブリッド検索とは Elasticsearchを用いたハイブリッド検索 RRF(Reci

                                                        ElasticsearchによるZOZOTOWNへのベクトル検索の導入検討とその課題 - ZOZO TECH BLOG
                                                      • GNN-RAGで7BモデルでもGPT-4と同等の性能を引き出す

                                                        導入 こんにちは、株式会社ナレッジセンスの須藤英寿です。普段はエンジニアとして、LLMを使用したチャットのサービスを提供しており、とりわけRAGシステムの改善は日々の課題になっています。 RAGのシステムでは一般的に、断片化されたテキストをEmbeddingによってベクトル化し、関連する情報を検索、そして質問に回答するという形式が採用されるかと思います。 しかし本来、RAGのデータソースは断片化されたテキストに限定はされていません。その一つとして、Knowledge Graph(知識グラフ)というものが存在します。 本記事では、そんなKnowledge Graphを利用した新しいRAGのシステム、GNN-RAGについて紹介します。 サマリー GNN-RAGは、Knowledge Graphから関連するデータの取得にGNNを使用します。この手法を利用することで、既存のKnowledge Gr

                                                          GNN-RAGで7BモデルでもGPT-4と同等の性能を引き出す
                                                        • LLMにまつわる"評価"を整理する

                                                          「LLMの評価」というフレーズを見て、どんなことを思い浮かべるでしょうか? おそらく大半はLLMモデル自体の評価のことを思い浮かべると思います。新しいモデルが出てきた時に𝕏で見かける「GPT-4o のMMLUベンチマークは89%!」みたいなアレ。 ですが、プロダクト開発にLLMを使っている人の間では、プロンプト等が十分な品質を出しているかの確認などにも評価という言葉を使っていることは多いのではないかと思います。 うまい具合に後者を区別するためにいい感じの呼び名を付与したい気持ちがあるのですが、英語圏での例を見てみるとシンプルに"Evals"と呼んでることもあれば Evaluating LLM System Evaluating LLM-based Applications などなど表現の仕方は様々になっています。 そしてそのプロダクト開発文脈での評価も、実態としてはオフライン評価やオンラ

                                                            LLMにまつわる"評価"を整理する
                                                          • アップル、「iOS」に「ChatGPT」を組み込むOpenAIとの提携をWWDCで発表か

                                                            Appleの最高経営責任者(CEO)であるTim Cook氏が、2月の四半期決算説明会で人工知能(AI)に関する計画を示唆し、「大きな機会がある」とだけ語っていた意味が、ようやく分かるかもしれない。 Bloombergなどの報道によると、Appleは米国時間6月10日から開催する年次開発者会議WWDC24でOpenAIとの提携を発表し、「iOS」に「ChatGPT」を組み込む計画だという。 Appleは米CNETからのコメント依頼に回答しなかった。OpenAIはコメントを控えるとした。 Bloombergは先に、この件に詳しい関係者の話として、両社が合意に向けて動いていると報じていた。取引は5月に成立したとされている。 Bloombergによると、AppleはGoogleともチャットボット「Gemini」のライセンスについて交渉中で、最終的にはさまざまなサードパーティーのチャットボットを提

                                                              アップル、「iOS」に「ChatGPT」を組み込むOpenAIとの提携をWWDCで発表か
                                                            • 月間はてなブックマーク数ランキング(2024年5月) - はてなブックマーク開発ブログ

                                                              はてなブックマークのブックマーク数が多い順に記事を紹介する「はてなブックマーク数ランキング」。2024年5月のトップ50です*1。 順位 タイトル 1位 仕事の進め方がグダグダの会社はどうすればいいのか、「プロジェクトマネジメントの基本が全部わかる本」の著者に聞いてみた | Agend(アジェンド) 2位 取調べを受けることになったら ー取調べを受ける心がまえについてー - しんゆう法律事務所 3位 1on1ミーティングガイド (1on1ガイド) 4位 正常独身青年、先祖の戸籍を取り寄せる 5位 令和のHTML / CSS / JavaScriptの書き方50選 6位 ひとり社長の経理の基本|Tetsuya Morimoto 7位 知れば写真が上手くなる!基本・応用の構図15選と構図を使いこなすコツ | Adobe 8位 【個人資産800億円】“伝説の投資家”清原達郎氏の情報収集「会社四季

                                                                月間はてなブックマーク数ランキング(2024年5月) - はてなブックマーク開発ブログ
                                                              • LayerX、エンタープライズ企業のドキュメントワークを効率化する生成AIプラットフォーム「Ai Workforce」をリリース。日本マイクロソフトと開発・営業で連携

                                                                LayerX、エンタープライズ企業のドキュメントワークを効率化する生成AIプラットフォーム「Ai Workforce」をリリース。日本マイクロソフトと開発・営業で連携 すべての経済活動のデジタル化を目指す株式会社LayerXは、AI・LLM事業部において、大規模言語モデル(LLM)を用いてドキュメントワークを効率化する、ノーコード・ノープロンプト生成AIプラットフォーム「Ai Workforce」をリリースしました。また開発・営業にあたっては日本マイクロソフト株式会社(以下、日本マイクロソフト)と連携。システム基盤には Microsoft Azure を活用し、セキュリティと柔軟性の両立を実現します。 AI・LLM事業部では今後、プロダクトマネージャーやエンジニア等の採用を強化し、エンタープライズ企業への提供を加速していきます。 概要 LayerXは2023年11月、企業や行政のLLM(大

                                                                  LayerX、エンタープライズ企業のドキュメントワークを効率化する生成AIプラットフォーム「Ai Workforce」をリリース。日本マイクロソフトと開発・営業で連携
                                                                • 「自称オープンソース生成AI」は本当に“オープン”なのか? 45種のAIモデルをオランダの研究者らが調査

                                                                  このコーナーでは、2014年から先端テクノロジーの研究を論文単位で記事にしているWebメディア「Seamless」(シームレス)を主宰する山下裕毅氏が執筆。新規性の高いAI分野の科学論文を山下氏がピックアップし、解説する。 X: @shiropen2 オランダのRadboud University Nijmegenに所属する研究者らが発表した論文「Rethinking open source generative AI: open-washing and the EU AI Act」は、オープンソースと主張する生成AIを対象に、どの程度オープンなのかを調査した研究報告である。 近年、オープンであると主張する生成AIシステムが急増しているが、実際にはどの程度オープンなのかは疑問だ。「オープンソース」と謳いつつ、詳しく見てみると部分的にしか公開していないことはよくある。「オープンソース」は研究

                                                                    「自称オープンソース生成AI」は本当に“オープン”なのか? 45種のAIモデルをオランダの研究者らが調査
                                                                  • AtCoder生成AI対策ルール - 20240607版 - AtCoderInfo

                                                                    はじめに このルールは、AtCoder Beginner Contest(以下、ABCとする)のコンテスト中にのみ適用されるルールです。 AtCoder Regular Contest, AtCoder Grand Contest, AtCoder Heuristic Contestなどは、このルールの対象外です。過去問を練習している際には適用されません。ABCのコンテスト中においては、Unrated参加者にも適用されます。今回発表するルールは、2024年6月現在の生成AIの能力と利用状況に合わせて制定されたものです。今後のAI事情の変化に応じて、ルールを変更する予定です。 ルールの制定背景などは、以下をご確認ください。 生成AIの台頭に伴うABCにおけるルール変更について ルール AtCoderの開催中のコンテストの問題として発信されている情報の全部または一部を、ソフトウェアに入力として

                                                                      AtCoder生成AI対策ルール - 20240607版 - AtCoderInfo
                                                                    • GoogleのNotebookLMで情報収集・勉強を効率化する - Qiita

                                                                      はじめに ◆この記事は何? NotebookLMの活用法を紹介する記事 ◆この記事のねらい NotebookLMを効果的に活用できるようになること ↓NotebookLMはこちらからアクセスできます。 先に結論 NotebookLMの良い点 pdfファイルやwebページを読み込み、それを元に回答する専用のチャットボットを簡単につくれる ソースとなるpdfファイル/webページ/テキストを簡単に追加・削除できる 引用した箇所を表示してくれる NotebookLMでできること NotebookLMはGoogleのサービスです。 2024年6月6日に日本語対応しました。 NotebookLMでは専用のチャットボットを簡単につくれます。 ◆アップロードできるコンテンツ チャットボットの回答ソースとなるコンテンツをアップロードできます。 GoogleドライブからGoogle documentやGoo

                                                                        GoogleのNotebookLMで情報収集・勉強を効率化する - Qiita
                                                                      • RAGで人間の脳を再現。「HippoRAG」を理解する

                                                                        はじめまして。ナレッジセンスの門脇です。生成AIやRAGシステムを活用したサービスを開発しています。本記事では、RAGの性能を高める手法である「HippoRAG」について、ざっくり理解します。 この記事は何 この記事は、RAGの新手法として最近注目されている「HippoRAG」の論文[1]について、日本語で簡単にまとめたものです。 「そもそもRAGとは?」については、知っている前提で進みます。確認する場合は以下の記事もご参考下さい。 本題 ざっくりサマリー HippoRAGは、RAGの性能を高めるための新しい手法です。オハイオ州立大学の研究者らによって2024年5月に提案されました。HippoRAGを使うメリットは、複数の知識を組み合わせて回答する必要があるような、複雑な質問に強くなることです。HippoRAGが従来のRAGに比べて、複雑な質問に強い理由は、ナレッジグラフと、それを継続的に

                                                                          RAGで人間の脳を再現。「HippoRAG」を理解する
                                                                        • 小規模言語モデル(SLM)とは? マイクロソフトPhi-3やグーグルGammaは何を競うのか?

                                                                          生成AI領域における言語モデルは今、いくつかの方向で開発が進められている。 その1つは「大規模言語モデル(LLM)」の開発。大規模言語モデルは、生成AIの代名詞的な存在で、文字どおりサイズ(パラメータ数)が大きなモデルを指す。最近の例でいえば、GPT-4oやClaude 3 Opusなどが代表格といえるだろう。パラメータ数は公開されていないが、非常に大規模なモデルといわれており、パフォーマンスもかなり高いものとなっている。 もう1つが、大規模言語モデルに比べ規模が小さな言語モデル(Small Language Model=SLM)の開発だ。SLMとは、LLMよりもパラメータ数が少なく、よりコンパクトで効率的なAIモデルのことを指す。一般的にLLMが数百億から数千億のパラメータを有するのに対し、SLMは数億から数十億程度のパラメータで構成される。 LLMは、テキストや画像、音声、動画など幅広

                                                                            小規模言語モデル(SLM)とは? マイクロソフトPhi-3やグーグルGammaは何を競うのか?
                                                                          • LLMによるLLMの評価(LLM as a judge)の精度改善のための試行錯誤〜評価分割・モデル間比較

                                                                            LLM-as-a-Judgeとは LLMをアプリケーションに組み込んでいると、LLMの出力を評価する必要が出てきます。 LLMの「出力は確率的である(毎回異なる)」ためです。 また、LLMの出力はハルシネーションを含む可能性がありますし、間違いではないにしてもサービス提供者の意図とは違った出力をエンドユーザーに提示してしまうかもしれません。 LLMの出力を評価して、出力が適切でないことを判定できれば、ユーザーには表示しない、出力を再度行わせる(出力をLLMに修正させるのもよいでしょう)というようなことができるようになります。 ただし、LLMのすべての出力を人が評価していたのでは、手が回りません。 そこで、注目されているのが、LLM-as-a-Judgeと呼ばれるLLMにLLMの出力を評価させる手法(以後、単に評価と呼ぶ)です。 評価にLLMを使えば、出力をすぐに評価し、評価結果をアプリケー

                                                                              LLMによるLLMの評価(LLM as a judge)の精度改善のための試行錯誤〜評価分割・モデル間比較
                                                                            • 中国AIが加速。Soraに匹敵する中国の動画生成AI「KLING」、中国アリババの最新オープンLLM「Qwen 2」登場など生成AI関連技術5つを紹介(生成AIウィークリー) | テクノエッジ TechnoEdge

                                                                              2014年から先端テクノロジーの研究を論文単位で記事にして紹介しているWebメディアのSeamless(シームレス)を運営し、執筆しています。 1週間分の生成AI関連論文の中から重要なものをピックアップし、解説をする連載です。第50回目は、生成AI最新技術の概要5つを紹介します。 生成AI論文ピックアップ Soraに匹敵する動画生成AI「KLING」登場。中国のショート動画アプリ開発チーム「快手」が手がける アリババグルーブが開発するオープンソースな大規模言語モデルの新バージョン「Qwen 2」登場 ラベルなし静止画の学習だけ、ビデオ内の動く物体を検出・追跡できるモデル「MASA」 相手が話している適切なタイミングで同時翻訳するAIモデル「StreamSpeech」 OpenAIが大規模言語モデルの中身を理解するモデルを発表。GPT-4の中身は1600万の特徴を持つ Soraに匹敵する動画

                                                                                中国AIが加速。Soraに匹敵する中国の動画生成AI「KLING」、中国アリババの最新オープンLLM「Qwen 2」登場など生成AI関連技術5つを紹介(生成AIウィークリー) | テクノエッジ TechnoEdge
                                                                              • WWDC24予言 - cockscomblog?

                                                                                今年も書いておく。 AI 今のAppleに最も期待されているトピックであり、Google I/O、Microsoft Buildなどで競合他社が最も力を入れているのがAI。当然WWDC24でも、「AI」という語が飛び交うことになる。 「AI」という語を使い始めたApple Appleは2024年5月のスペシャルイベントでLogic Pro*1とFinal Cut Pro*2のアップデートを発表したが、そこでは機械学習を活用した機能を「AI機能」と宣伝するようになった。これは例えば、Apple Watchのダブルタップジェスチャーでは「機械学習アルゴリズム」と表現していた*3のと比べると、わかりやすい変化である。 とはいえWWDC24では、AIの中でもとりわけLLMを含む生成AIについて発表されるだろう。ここで、Appleのプライバシー重視の姿勢とどう折り合いをつけるかというのが一つの焦点に

                                                                                  WWDC24予言 - cockscomblog?
                                                                                • Blog - Private Cloud Compute: A new frontier for AI privacy in the cloud - Apple Security Research

                                                                                  Private Cloud Compute: A new frontier for AI privacy in the cloud Written by Apple Security Engineering and Architecture (SEAR), User Privacy, Core Operating Systems (Core OS), Services Engineering (ASE), and Machine Learning and AI (AIML) Apple Intelligence is the personal intelligence system that brings powerful generative models to iPhone, iPad, and Mac. For advanced features that need to reaso