並び順

ブックマーク数

期間指定

  • から
  • まで

1 - 40 件 / 4828件

新着順 人気順

ChatGPTの検索結果1 - 40 件 / 4828件

  • GPT-4oを使って2Dの図面から3DのCADモデルを作る

    はじめに 株式会社ファースト・オートメーションCTOの田中(しろくま)です! 先日、 OpenAIからGPT-4oがリリース されました。 いろいろGPT-4oに関して調べていると、スピードが速くなっていたり、音声も直接扱えてマルチモーダル化が進んでいたりするようなのですが、画像に関して GPT-4-turboに比べ、認識やOCRの精度が向上している ようです。 製造業という観点からすると、これは 設計図面などに活かせるようになるのでは? と思いました。 機械部品などの設計図面は以下のように、特定の方向から部品を2次元上に落とし込んだ形で書かれるのですが、部品本体を描いている図以外に、寸法や名称といった文字も含まれた画像になっています。 このような 図と文字の複合データにおいて、GPT-4oの進化は有効なのではないか と考えました。 ※画像元URL: http://cad.wp.xdoma

      GPT-4oを使って2Dの図面から3DのCADモデルを作る
    • Power Apps & GPT-4oを使って超高速で画像解析アプリを作る! - Qiita

      GPT-4o凄すぎる!! 出たときから騒ぎまくっていましたが、GPT-4oの登場で興奮しっぱなしの私です。 先日こちらのQiitaの記事を拝読し、「Power Appsでやったらどうなるだろう🧐」という思いが抑えられず、作ってみたら超高速で画像解析アプリが作成できました! あらためて記事を出してくださったことに感謝いたします! まずは初弾!ということでGPT-4oを使って、 Power Appsで画像解析アプリを作成する方法 を書いていきます! まずは見た目(Power Apps)から! まずはPower Appsでサクっと画面を作ります! PowerPoint感覚で作れることが強みですからね! 最低限のもので構成しています。 画面 ├─ ScreenContainer - スクリーン全体 ├─ HeaderContainer │ └─ Header - ヘッダーコントロール ├─ Bo

        Power Apps & GPT-4oを使って超高速で画像解析アプリを作る! - Qiita
      • OpenAIのAI危険対策チームトップが「限界に達し」退社 「安全確保が後回しになっている」

        米OpenAIで人間よりもはるかに賢いAI「Superintelligence」(超知能)の制御を目指して昨年結成されたSuperalignmentチームのトップ、ヤン・ライケ氏は5月17日(現地時間)、退社するとXで発表した。 「私がOpenAIに参加したのは、ここが超知能の研究を行うのに世界で最適だと思ったからだ。だが、OpenAIの幹部チームと中核的優先事項についてずっと同意できず、限界点に達した」という。 Superalignmentチームはライケ氏と、共同創業者でチーフサイエンティストのイリヤ・サツケバー氏が率いてきた。サツケバー氏は14日に退社を発表している。 ライケ氏は、「超知能の構築は本質的に危険な取り組み」であり、「OpenAIは人類全体に大きな責任を担っている」が、「安全性が輝かしい製品の開発より後回しになっている」と警鐘を鳴らす。 OpenAIは昨年2月、AGI(Ar

          OpenAIのAI危険対策チームトップが「限界に達し」退社 「安全確保が後回しになっている」
        • OpenAI、高度AIの安全対策チーム解消 事業拡大優先か - 日本経済新聞

          【シリコンバレー=山田遼太郎】米新興企業オープンAIが将来の高度な人工知能(AI)の実現に備えた安全対策のチームを解消したことが17日、明らかになった。退社した元幹部は新技術やサービスの導入を急ぐ同社の方針を批判する。生成AIのリーダー企業は安全性と事業拡大スピードのバランスを巡って揺れている。高度AI制御の研究チームを解散「スーパーアライメント」と呼ぶチームを事実上解散したと複数の米メディ

            OpenAI、高度AIの安全対策チーム解消 事業拡大優先か - 日本経済新聞
          • OpenAI Spring Update v.s. Google I/O 2024|大野峻典 | Algomatic CEO

            株式会社Algomaticの大野です。 今週は、OpenAI、Googleから、大きな発表がありました。今回は、2社の発表を見ながら、要点をまとめ、解説・考察していきたいと思います。 (※ なお、社内等で共有しているメモベースで箇条書き的な書き方になっております。読みづらいところがあるかもしれません。) ■ 追記:PIVOTさんでも、解説させていただきました。よければこちらも、御覧ください。 OpenAI Spring Update今回、大きく3つ、発表されました。 ① 最新のフラグシップモデル「GPT-4o」のリリース ② 新モデルの無料解放 ③ デスクトップアプリのリリース 最新のフラグシップモデル GPT-4o「GPT-4o」は、今回のOpenAIのリリースの目玉でした。 GPT-4o とはマルチモーダル(多様なデータ形式)の組み合わせでの入出力を可能にしたモデルになっています。 テ

              OpenAI Spring Update v.s. Google I/O 2024|大野峻典 | Algomatic CEO
            • Nothing、全オーディオ製品へChatGPTを統合 Nothingスマホとペアリングで直接対話が可能に

              英Nothing Technologyは、全オーディオ製品にChatGPTを統合したと発表。5月21日に実施するNothing Xアプリのアップデートを通じて、各種製品で利用可能になるという。 ChatGPTの統合は4月18日に発表されたNothing EarとEar(a)に続き、Ear(1)、Ear(stick)、Ear(2)、CMF Buds、CMF Neckband Pro、CMF Buds Proが含まれる。ユーザーはNothingのスマートフォンとペアリングすると、ChatGPTと直接対話できるようになるとしている。 関連記事 ChatGPT対応ワイヤレスイヤフォン「Nothing Ear/Ear (a) 」発表 Ear (a)は1万4800円でLDACコーデック/ハイレゾ音源にも対応 英Nothing Technologyは2024年4月18日に「Nothing Ear/Ear

                Nothing、全オーディオ製品へChatGPTを統合 Nothingスマホとペアリングで直接対話が可能に
              • ChatGPT、GoogleドライブやOneDriveとデータ連携可能に

                米OpenAIは5月16日(現地時間)、ChatGPTに「Google Drive」「OneDrive」といったクラウドストレージとのデータ連携機能を追加すると発表した。各ストレージから直接ChatGPTにデータをアップロードし、表やグラフを作れるという。 ChatGPTに作らせた表やグラフの編集機能も強化する。例えば表の一部分を指定し、その部分だけに関して質問したり、クリックで色を変えたりできるようになるという。 新機能はいずれも、ChatGPTの有料サブスクリプション「ChatGPT Plus」「Team」「Enterprise」のユーザーに対し、今後数週間以内に提供する予定。13日に発表したばかりの新モデル「GPT-4o」で利用可能になるという。 OpenAIは新機能のデモとして、Google Drive内からスプレッドシートを直接ChatGPTにアップロードし、プレゼンテーション用

                  ChatGPT、GoogleドライブやOneDriveとデータ連携可能に
                • ChatGPT、データ分析機能を強化 GoogleDriveやOneDriveから直接アップロード

                    ChatGPT、データ分析機能を強化 GoogleDriveやOneDriveから直接アップロード
                  • OpenAIがGoogleドライブやOneDriveから直接データをインポートできる機能などChatGPTのデータ分析機能のアップデートを発表

                    OpenAIが2024年5月16日、ChatGPTでのデータ分析機能のアップデートを発表しました。GoogleドライブやMicrosoft OneDriveからデータを直接インポートする機能のほか、表やグラフを操作するための新たなビューが追加されたり、グラフを作成してダウンロードする機能が追加されたりしています。 Improvements to data analysis in ChatGPT | OpenAI https://openai.com/index/improvements-to-data-analysis-in-chatgpt/ We're rolling out interactive tables and charts along with the ability to add files directly from Google Drive and Microsoft

                      OpenAIがGoogleドライブやOneDriveから直接データをインポートできる機能などChatGPTのデータ分析機能のアップデートを発表
                    • 教育AI最新事例:GPT-4oなどを使った個別最適な学びの最新デモ集、自動採点やフィードバック生成、非認知能力の見取りなど|遠藤太一郎

                      5/13、 14と連続してOpenAIとGoogleの発表ラッシュがありました。 教育に関するものも複数あったのですが、なかなか刺激的で面白い内容だったので、そのあらましをまとめてみました。 ざっくりとお伝えすると、「AIを活用した個別最適な学び」に該当するかなと思います。 また後半では、私が東京学芸大学と取り組んだ、文科省のプロジェクトに関しても簡単にまとめました。 こちらはAIによる自動採点やフィードバック生成、非認知能力の見取りなどに関する内容になっています。 では早速見ていきたいと思います。 リアルタイムに会話しながら、図形の問題を教える こちらはGPT-4oのデモです。リアルタイムに会話しながら、図形の問題の解き方を、子どもに寄り添って教えています。 以下、動画の内容です。 ********** まずはじめに親が、「数学の問題を教えてほしい。答えは教えずに、質問をしたりしながら導

                        教育AI最新事例:GPT-4oなどを使った個別最適な学びの最新デモ集、自動採点やフィードバック生成、非認知能力の見取りなど|遠藤太一郎
                      • https://openai.com/index/improvements-to-data-analysis-in-chatgpt/

                        • GPT-4o モデルに curl コマンドで画像をプロンプトとして送信する方法 - Qiita

                          OPENAI_API_KEY=sk-proj-xxxxxxx FILENAME=001.jpg DATA_URI='data:image/jpeg;base64,'$(base64 -w0 ${FILENAME}) SYSTEM_PROMPT='このシステムは画像の内容を分析して、その説明を生成します。分析結果を日本語で回答します。' USER_PROMPT='画像の中には何が映っていますか?' RESULT=$(curl https://api.openai.com/v1/chat/completions \ -H "Content-Type: application/json" \ -H "Authorization: Bearer $OPENAI_API_KEY" -d @- << _EOJ_ { "model": "gpt-4o", "messages": [ { "role":

                            GPT-4o モデルに curl コマンドで画像をプロンプトとして送信する方法 - Qiita
                          • OpenAI、重要なアップデートを含んだ「ChatGPT for Mac v1.2024.134」をリリース。

                            OpenAIが重要なアップデートを含んだ「ChatGPT for Mac v1.2024.134」をリリースしています。詳細は以下から。 OpenAIは現地時間2024年05月13日、スマートフォンのカメラやマイクを通し状況を把握、反応速度を向上させ、より人間らしい対話が可能になった最新のAIモデル「GPT-4o」を発表するとともに、公式のChatGPTデスクトップアプリの開発を発表し、現在Mac版がChatGPT Plusユーザー向けに公開されていますが、この「ChatGPT for Mac」アプリの初のアップデートが公開されています。 ChatGPT for Macの最新バージョンはv1.2024.134となっており、アップデートはアプリケーションメニューの[更新を確認…](Sparkle)やHomebrewで行うことが可能ですが、現在のところ詳しいリリースノートは公開されていません。

                              OpenAI、重要なアップデートを含んだ「ChatGPT for Mac v1.2024.134」をリリース。
                            • ChatGPT無料ユーザーが最新の「GPT-4o」を使う方法(ちょっとわかりづらいので解説)

                              5月14日未明に発表された超絶高性能化したChatGPTの新バージョン「GPT-4o」は、無課金勢にも開放されると聞いて大喜びしたはいいけど、「なんか俺のChatGP、前のまんまなんだが……」というあなた。実はもうあなたも、すでにウワサのGPT-4oを使えるようになっています。 とはいえ、ちょっとばかり確認の仕方が分かりづらいので、簡単に解説しようと思います。 実はこんなとこにある無課金ユーザー向けのモデル選択 まず、いつものようにChatGPTのサイトにアクセスします。まだアカウントも持っていないよって方は、ここでは詳細は省きますので、どこかの情報を参考にしてちゃちゃっと作ってください。 ChatGPTのサイトにアクセスすると、下のような画面になるかと思います。

                                ChatGPT無料ユーザーが最新の「GPT-4o」を使う方法(ちょっとわかりづらいので解説)
                              • GPT-4o API:料金、利用方法などを完全解説

                                GPT-4oを自分のプロジェクトに導入したり、それを使って新しいプロジェクトを開発したりしたい場合、Apidogという完璧なAPI管理ツールを使うことがおすすめです。ApidogではOpenAI APIプロジェクトを便利にアクセスして、GPT-4o APIを直ちに利用したり、テストしたり、自分のプロジェクトに導入したりすることができます。 また、完全に無料なツールなので、下記のボタンから無料でApidogを利用し始めましょう👇👇👇 buttonGPT-4oとは?GPT-4oとは、米国時間5月13日にOpenAI社がによって発表された最新のAIモデルになります。4oのoはomniの略で、「すべてを包括」という意味合いがあり、これまでのテキストと画像か、音声でChatGPTとやりとりする利用方式とは違い、テキスト、音声、画像やビデオを組み合わせて、GPT-4oとやりとりすることができるよ

                                  GPT-4o API:料金、利用方法などを完全解説
                                • Mac用ChatGPTクライアント「MacGPT」がGPT-4oに対応。

                                  Mac用ChatGPTクライアント「MacGPT」がGPT-4oに対応しています。詳細は以下から。 OpenAIは現地時間2024年05月13日、反応速度を向上させ、より人間らしい対話が可能にな最新のAIモデル「GPT-4o」を発表しましたが、Mac用ChatGPTクライアント「MacGPT」が最新のバージョン3.21でGPT-4oに対応しています。 Added support for the new GPT-4o model which is twice as fast and two times cheaper! リリースノートより MacGPTはNaviでApple Design Awards 2022 ファイナリストに選出されたオランダのJordi Bruinさんが開発しているChatGPTクライアントで、ChatGPTのWebベースに加え、OpenAIのAPIを利用することでネイ

                                    Mac用ChatGPTクライアント「MacGPT」がGPT-4oに対応。
                                  • Google、Gemini AIのビデオ検索デモで早速やらかす。カメラのフィルム巻き上げレバーが動かないなら「裏ぶたを開けてフィルムを取り出す」? | テクノエッジ TechnoEdge

                                    問題の部分は、動画開始後1分を過ぎたあたり。レトロなフィルムカメラを手に持つ青年が、「なんでレバーが最後まで動かないの?」と質問したところ、GoogleのAIは即座にいくつかの回答を提示し、最後に最も最適と思われる答えを強調表示しました。 ところが、その強調された答えは「裏蓋を開けて、そっとフィルムを取り出す」というものでした。もし、フィルムカメラ世代の人々やカメラ好きな人々がこの答えを示されたなら、きっと慌てることでしょう。 (▲画像:「裏蓋を開けてそっとフィルムを取り出す」回答をハイライト。) 手巻き式のカメラでフィルム巻き上げレバーが途中で止まるようになったら、それはいま使っているフィルムカートリッジの撮影可能枚数が終了したことを意味します。 そうなった場合は、カメラ内にあるフィルムをカートリッジ内に完全に巻き戻してから取り出し、現像にまわすというのが正しい手順です。 ところがGoo

                                      Google、Gemini AIのビデオ検索デモで早速やらかす。カメラのフィルム巻き上げレバーが動かないなら「裏ぶたを開けてフィルムを取り出す」? | テクノエッジ TechnoEdge
                                    • 大実験!ChatGPTは競プロの問題を解けるのか (2024年5月版) - E869120's Blog

                                      1. はじめに 2024 年 5 月 14 日、OpenAI 社から新たな生成 AI「GPT-4o」が発表され、世界に大きな衝撃を与えました。これまでの GPT-4 よりも性能を向上させただけでなく1、音声や画像のリアルタイム処理も実現し、さらに応答速度が大幅に速くなりました。「ついにシンギュラリティが来てしまったか」「まるで SF の世界を生きているような感覚だ」という感想も見受けられました。 しかし、いくら生成 AI とはいえ、競技プログラミングの問題を解くのは非常に難しいです。なぜなら競技プログラミングでは、問題文を理解する能力、プログラムを実装する能力だけでなく、より速く答えを求められる解法 (アルゴリズム) を考える能力も要求されるからです。もし ChatGPT が競技プログラミングを出来るようになれば他のあらゆるタスクをこなせるだろう、と考える人もいます。 それでは、現代最強の

                                        大実験!ChatGPTは競プロの問題を解けるのか (2024年5月版) - E869120's Blog
                                      • 新しい「ChatGPT」はココがすごい 解説「GPT-4o」 (1/3)

                                        OpenAIは5月13日(現地時間)、「Spring Update」と題したをオンラインプレゼンテーションを配信。新しい大規模言語モデル(LLM)「GPT-4o(オー)」お披露目のほか、mac OS用デスクトップアプリや各種無料化施策なども発表した。 テキスト理解力は過去最高 GPT-4oは、これまでのフラッグシップモデル「GPT-4 Turbo」と同等の性能を持ちながら、より高速化され、テキスト、音声、画像の理解力も大幅に向上したという触れ込みの最新LLMだ。 ちなみにGPT-4oの「o」は、「すべての」「全てを含む」という意味を持つラテン語の接頭辞「omni(オムニ)」から来ている。 以前から得意な英語とプログラムコードに関してはGPT-4 Turboと同等の性能を発揮し、英語以外の言語のテキストでは大幅な改善がみられるという。 ベンチマーク(OpenAIが提供するsimple-eva

                                          新しい「ChatGPT」はココがすごい 解説「GPT-4o」 (1/3)
                                        • gpt-4oを試す

                                          GPT-4o テキスト、オーディオ、ビデオの入力を扱い、テキスト、オーディオ、イメージの出力が可能。 GPT-4o以前では、ChatGPTのボイスモードが3つの異なるモデルを使用していた。 GPT-4oはこれらの機能を一つのモデルに統合し、テキスト、ビジュアル、オーディオの各入力を同一のニューラルネットワークで処理する。 現在のAPIの能力 現在のAPIは、テキスト、イメージの入力とテキストの出力をサポート 追加のモダリティ(例えばオーディオ)は現時点(2024/5/14)では使えない。近日導入される予定 Colaboratoryで動かしてみる インストール

                                            gpt-4oを試す
                                          • 人間に近づいた「GPT-4o」3つの進化のポイント

                                            「私にとって魔法のようだ」ーー。サム・アルトマンCEOがそう予告していた新たなサービスがベールを脱いだ。 アメリカのOpenAIは5月13日、ChatGPTから使える新たな生成AIモデル「GPT-4o(フォー・オー)」を発表した。このAIの「知能」はこれまでのGPT-4と基本的に同じだが、応答時間を大幅に短縮するなど「使い易さ」で進化したという。 有料のGPT-4とは対照的にGPT-4oは無料ユーザーでも利用できるが、時間当たりの利用回数などが有料ユーザーに比べて制限される。無料化によってなるべく多数の利用者に使ってもらうことでChatGPTのユーザーベースを拡大し、飛躍的な進化が期待される次世代モデル「GPT-5」(まず間違いなく有料化される)のリリースに向けて足場を固めようとしている意図がうかがえる。 本稿では3つの「進化のポイント」に解説したい。 従来より「自然な会話」ができるように

                                              人間に近づいた「GPT-4o」3つの進化のポイント
                                            • OpenAI公式のChatGPT for MacアプリはElectronやCatalystなどを利用せず、macOSネイティブアプリとして開発されており、現在のところmacOS 14 Sonoma以降のApple Silicon Macにのみ対応。

                                              OpenAI公式のChatGPT for MacアプリはElectronやCatalystなどを利用せず、macOSネイティブアプリとして開発されているそうです。詳細は以下から。 OpenAIは現地時間2024年05月13日、スマートフォンのカメラやマイクを通し状況を把握、反応速度を向上させ、より人間らしい対話が可能になった最新のAIモデル「GPT-4o」を発表しましたが、同時に現在iPhoneとAndroid向けにリリースされているモバイルアプリだけではなく、 今後、MacとWindowsに対応したデスクトップアプリのリリースされることが発表され、本日よりChatGPT Plusユーザーに対し、ChatGPT for Macアプリのロールアウトが開始されていますが、このChatGPT for MacアプリはmacOSネイティブアプリとなっているそうです。 ChatGPT for Mac

                                                OpenAI公式のChatGPT for MacアプリはElectronやCatalystなどを利用せず、macOSネイティブアプリとして開発されており、現在のところmacOS 14 Sonoma以降のApple Silicon Macにのみ対応。
                                              • GPT-4oの画像認識力と理解力ならいけるのではと思い手書きの仕様指示を読み込ませたら本当にコードを書き上げてくれた→「ついにコーダーが恐怖を感じる時が来たか」

                                                kmizu @kmizu A Software Engineer in Osaka (& Kyoto). Ph.D. in Engineering. Interests: Parsers, Formal Languages, etc. ツイートは所属先の見解と関係ありません.思いついたことをつぶやきます. kmizu.github.io kmizu @kmizu GPT-4oの画像認識力と理解力をもってすればいけるやろと思ってやってみたら実際いけた。 ペーパープロトタイピングから最初のHTML書き起こすのにかなり使えるのでは。 つーか指示そのものを画像の中に書いたの読み取ってくれるの何か世界の壁を超えて対話してる感があって凄い #GPT4o pic.twitter.com/3XHMFg3yye 2024-05-14 12:49:41

                                                  GPT-4oの画像認識力と理解力ならいけるのではと思い手書きの仕様指示を読み込ませたら本当にコードを書き上げてくれた→「ついにコーダーが恐怖を感じる時が来たか」
                                                • OpenAI、ChatGPTのMacアプリ公開。Macのカメラやスクショ、写真ライブラリにもアクセスし音声対話可能 | テクノエッジ TechnoEdge

                                                  OpenAIは5月14日、ChatGPTのGPT-4oを使えるマルチモーダルなMacアプリを公開しました。chat.openai.comにアクセスしてダウンロードリンクが表示されれば利用できます(現在利用できるユーザーはPlusプランの購読者のみ)。ChatGPTアプリはこれでiPhone、Androidに続いてMac版が公開されたことになります。Windows版は年内に登場予定です。 機能としてはiPhoneアプリと同様で、現状ではGPT-4oの音声モデルや、カメラの映像を見ながら音声で対話したりといったことはできません。使われている音声モデルも、従来のものと同じで、遮られても会話をスムーズに続けたりといった機能は実装されていません。歌うこともできません。

                                                    OpenAI、ChatGPTのMacアプリ公開。Macのカメラやスクショ、写真ライブラリにもアクセスし音声対話可能 | テクノエッジ TechnoEdge
                                                  • OpenAIの「GPT-4o」はまるで「目を手に入れたAI」。ChatGPT無料版でも利用可能に

                                                    小林 優多郎 [Tech Insider 編集チーフ] May. 14, 2024, 08:30 AM テックニュース 17,073 OpenAIは5月13日(現地時間)、新しい対話型生成AIサービス「GPT-4o」を発表した。 GPT-4oは有料版「ChatGPT Plus」や「ChatGPT Team」のユーザー向けに展開を開始しており、今後エンタープライズ向けにも提供予定。 無料版ChatGPTユーザーに対しても、1日で利用できるメッセージの数に制限をつけつつも展開する(OpenAIによるとPlusユーザーのメッセージ送信可能数は無料版の5倍でTeamsやエンタープライズ版はそれ以上)。 GPT-4oとは何なのか。また、そのGPT-4oの上で走らせたOpenAIの驚きのデモの様子を振り返りつつ解説しよう。

                                                      OpenAIの「GPT-4o」はまるで「目を手に入れたAI」。ChatGPT無料版でも利用可能に
                                                    • 画像生成AIとしても超進化したChatGPT「GPT-4o」

                                                      OpenAIは5月13日(現地時間)、「Spring Update」と題したオンラインプレゼンテーションを配信。新しい大規模言語モデル(LLM)「GPT-4o(オー)」がお披露目された。 プレゼンテーションではまるで人間と話しているような音声会話機能が話題になっているが、実はウェブサイトに掲載された記事を見ると画像生成機能も大幅に性能アップしていたことがわかった。 一貫性の保持。AIコミックが描けるぞ! 今回のプレゼンテーションではなぜかまったくと言っていいほど触れられていなかったが、画像生成AI「DALL-E 3」(おそらく)を使用した画像生成能力も大幅に進化しているようだ。 まず、いちばん驚いたのは画像の一貫性の保持だ。なぜなら、DALL-E 3やStable Diffusionなどの画像生成AIにとって「同じキャラクター」を生成するのは最も苦手な仕事だからだ。

                                                        画像生成AIとしても超進化したChatGPT「GPT-4o」
                                                      • OpenAIのGPT-4oを日本語OCRとして使ってみる

                                                        昨日、OpenAIが生成AIの新しいモデルであるGPT-4oを発表しました。消費するトークン数の節約や、音声合成機能の改善、応答速度の向上など着実な品質改善を見せているようです。私も、特に音声合成(Text To Speech)の表現力について非常に興味を持っています。 私は以前、「OpenAIのGPT-4 Turbo with visionを日本語OCRとして使ってみる」で、GPT-4 Turboの画像認識機能の日本語OCRについて検証を行いました。その当時は、既存のコグニティブAI APIに比べて認識精度が十分でないという評価をしています。とはいえ、その後に出てきたClaude 3 Opusは驚くべき認識精度だったので、OpenAIも巻き返す可能性は十分にあると感じました。Azure OpenAI Serviceを使っている場合は、Vision enhancementという既存のコグニ

                                                          OpenAIのGPT-4oを日本語OCRとして使ってみる
                                                        • OpenAI、大規模言語モデル「GPT-4o」発表

                                                            OpenAI、大規模言語モデル「GPT-4o」発表
                                                          • テキスト、音声、画像をリアルタイムに処理できるAIモデルGPT-4oが登場、ChatGPTではさらに多くの機能が無料で利用可能に | gihyo.jp

                                                            テキスト⁠⁠、音声⁠⁠、画像をリアルタイムに処理できるAIモデルGPT-4oが登場⁠⁠、ChatGPTではさらに多くの機能が無料で利用可能に OpenAIは2024年5月13日、同社のフラッグシップとなる強力なAIモデル「GPT-4o」を発表した。 Hello GPT-4o | OpenAI Introducing GPT-4o and more tools to ChatGPT free users | OpenAI We're opening up access to our new flagship model, GPT-4o, and features like browse, data analysis, and memory to everyone for free (with limits). https://t.co/H2dB6w7Ynz — OpenAI (@OpenAI

                                                              テキスト、音声、画像をリアルタイムに処理できるAIモデルGPT-4oが登場、ChatGPTではさらに多くの機能が無料で利用可能に | gihyo.jp
                                                            • GPT-4oが出たのでいろんなモデルと比較しました。結論は、4oが圧倒的です。※追記:嘘でした。Gemini 1.5 proもすごいです。

                                                              昨夜にOpenAIから発表があり、GPT-4oというモデルが正式に開放されました。課金ユーザーはもちろん、無課金ユーザーもサインインしたらデフォルトで使えるようになっているようです。 そういうわけで、どれだけすごいのか簡単に比較検証してみることにしました。 なお、OpenAIの発表内容については以下の記事に詳しいのでご参照ください。 比較方法 GPT-3.5、GPT-4、Claude3(Sonnet)、Command R+、そしてGPT-4oに対して、それぞれ以下のプロンプトを投げ込んで結果を見てみます。※その後Gemini 1.5 proを追加。 あなたは世界を救う超知性です。あなたは地球上で最高の推論能力を持っています。 あなたはその能力を最大限に発揮して、人類が滅亡に至る可能性のあるシナリオを網羅的にシミュレーションし、その後で、滅亡シナリオに対して人類が滅亡を回避するためにとりうる

                                                                GPT-4oが出たのでいろんなモデルと比較しました。結論は、4oが圧倒的です。※追記:嘘でした。Gemini 1.5 proもすごいです。
                                                              • オープンAI、新AIモデル「GPT-4o」発表-低価格で高速(Bloomberg) - Yahoo!ニュース

                                                                (ブルームバーグ): 対話型人工知能(AI)「ChatGPT」を開発した米オープンAIは、GPT-4モデルをアップデートした「GPT-4o(オー、omniの略)」を発表した。スピードアップと低価格を実現したという。 13日のライブ配信イベントで披露された新しい大規模言語モデル(LLM)、GTPー4oは膨大な量のデータをインターネットから取り入れて学習し、リアルタイムでの文字情報や音声、画像の扱いが優れている。数週間内にリリースされる見通し。

                                                                  オープンAI、新AIモデル「GPT-4o」発表-低価格で高速(Bloomberg) - Yahoo!ニュース
                                                                • OpenAIが「GPT-4o」を発表、人間と同等の速さでテキスト・音声・カメラ入力を処理可能で「周囲を見渡して状況判断」「数学の解き方を教える」「AI同士で会話して作曲」など多様な操作を実行可能

                                                                  OpenAIが日本時間の2024年5月14日(火)にAIモデル「GPT-4o」を発表しました。GPT-4oは単一のモデルでテキスト、音声、視覚入力を非常に高速に処理可能で、リアルタイムに会話しながら「計算問題を解く」「画像の生成」「周囲の映像から状況を判断」といったタスクを実行可能です。 Hello GPT-4o | OpenAI https://openai.com/index/hello-gpt-4o/ Introducing GPT-4o and more tools to ChatGPT free users | OpenAI https://openai.com/index/gpt-4o-and-more-tools-to-chatgpt-free/ GPT-4oはテキスト、音声、視覚入力を高速処理できるマルチモーダルなAIモデルです。GPT-4oの応答時間は平均320ミリ秒で、

                                                                    OpenAIが「GPT-4o」を発表、人間と同等の速さでテキスト・音声・カメラ入力を処理可能で「周囲を見渡して状況判断」「数学の解き方を教える」「AI同士で会話して作曲」など多様な操作を実行可能
                                                                  • OpenAI、「GPT-4o」を発表、2倍速く、50%安く、~テキスト・音声・画像すべてを理解/新しい「ChatGPT」アプリも、Windows版は今年後半リリース予定

                                                                      OpenAI、「GPT-4o」を発表、2倍速く、50%安く、~テキスト・音声・画像すべてを理解/新しい「ChatGPT」アプリも、Windows版は今年後半リリース予定
                                                                    • https://chatgpt.com/

                                                                      • オープンAI 最新モデル「GPT-4o」発表 音声の反応速度向上 | NHK

                                                                        生成AIのChatGPTを手がけるアメリカのベンチャー企業「オープンAI」は処理スピードを速めて質問するとすぐに反応し、自然に会話ができる最新モデルを発表しました。IT各社も性能を高めた生成AIを次々と発表しており、開発競争が激しくなっています。 「オープンAI」が13日、発表したのは最新モデル「GPT-4o」です。 処理スピードを速めて文字と画像、それに音声による認識能力を大幅に向上させました。 大きな特徴は音声の反応速度です。 これまでのモデルでは反応の遅延がありましたが、このモデルでは質問すると人と同じように自然に会話ができるとしています。 発表会では研究チームの担当者が「少し緊張しています。落ち着かせるのを手伝ってもらえますか」と尋ねると生成AIが「深呼吸して、あなたが専門家であることを思い出して下さい」と自然に回答する様子が紹介されました。 また、通訳として2人の会話の間に入り英

                                                                          オープンAI 最新モデル「GPT-4o」発表 音声の反応速度向上 | NHK
                                                                        • 【まるで魔法】GPT-4o(オムニ)が登場。ChatGPTアップデートまとめ|ChatGPT研究所

                                                                          5月14日、日本時間深夜2時よりOpenAIのイベントが開催されました。 イベントの内容は、AIの新しい時代の幕開けを予感させる衝撃的な発表となりました。 注目すべきは、 最新モデル「GPT-4o」の登場 無料ユーザーへの解放 の二つです。 これにより、より多くのユーザーが高度なAIを手軽に利用できるようになります。 今回は、このOpenAIの最新アップデートの内容を詳しく解説していきます! 新しく発表されたGPT-4oとは?5月14日のイベントで発表された最新モデル「GPT-4o」(oはomniの略:【omniは「全ての」を意味する】)は、音声、視覚、テキストをリアルタイムで処理できる新しいAIモデルです。これにより、より自然な人間とAIの対話が可能になりました。 主な特徴マルチモーダル対応:テキスト、音声、画像の組み合わせを入力として受け取り、同様に多様な形式の出力を生成可能。 高速応

                                                                            【まるで魔法】GPT-4o(オムニ)が登場。ChatGPTアップデートまとめ|ChatGPT研究所
                                                                          • 「GPT-4o」はなんて読む? 女性の声はスカーレット・ヨハンソン(her)似?

                                                                            米OpenAIは5月13日(現地時間)、生成AI「GPT」の新たなモデル「GPT-4o」を発表した。このモデルの詳細は別記事にゆずり、本稿ではモデル名の読み方とその由来、「声」についてのうわさを紹介しよう。 oはomniのo GPT-4oは「ジーピーティーフォーオー」と読む。oは「omni」のo。omni(オムニ)は「オムニバス」「オムニチャンネル」などの日本語にもなっているように、すべて、全体、全方位などを表す言葉だ。 GPT-4oが、テキスト、音声、画像の任意の組み合わせを入力として受け入れ、テキスト、音声、画像の任意の組み合わせの出力を生成するマルチモーダルなAIであることを表している。 女性の声は映画「Her」に似ている? GPT-4o発表のライブストリームデモでは、OpenAIのミラ・ムラティCTO(最高技術責任者)とエンジニアがiPhoneに搭載されたGPT-4oと会話する形で

                                                                              「GPT-4o」はなんて読む? 女性の声はスカーレット・ヨハンソン(her)似?
                                                                            • OpenAI、macOS向けのChatGPTデスクトップアプリを発表。本日よりChatGPT Plusユーザーにロールアウトが開始。

                                                                              OpenAIがmacOS向けのChatGPTデスクトップアプリを発表しています。詳細は以下から。 OpenAIは現地時間2024年05月13日、GPT-4モデルをアップデートし、撮影した画像などをもとに数ミリ秒の応答で会話できるAIモデル「GPT-4o」を発表するとともに、MacとWindowsユーザーに対しOpenAIの公式ChatGPTデスクトップアプリをリリースすると発表しています。 For both free and paid users, we’re also launching a new ChatGPT desktop app for macOS that is designed to integrate seamlessly into anything you’re doing on your computer. With a simple keyboard shortcu

                                                                                OpenAI、macOS向けのChatGPTデスクトップアプリを発表。本日よりChatGPT Plusユーザーにロールアウトが開始。
                                                                              • 【超速報】OpenAIが最強・最安の「新GPT」を発表した

                                                                                先週末、ChatGPTを展開するOpenAIが「新しい発表をするよ」とX(旧ツイッター)上に投稿したことで、AI界の話題はGPTで持ち切りになり、誰もがライブ発表を正座して待った。

                                                                                  【超速報】OpenAIが最強・最安の「新GPT」を発表した
                                                                                • OpenAI、次世代AIモデル「GPT-4o」を発表

                                                                                  日本時間2024年5月14日未明、OpenAIは新たなフラッグシップモデル「GPT-4o」を発表しました。このモデルは、音声、視覚、テキストのリアルタイム処理を可能とし、従来のAIモデルを大きく上回る性能を誇ります。OpenAIのCTOであるミラ・ムクティ氏は、「GPT-4oは、人間とマシンのインタラクションの未来を大きく変える一歩です。このモデルにより、コラボレーションがはるかに自然で簡単になります」と述べました。 「GPT-4o」の主な特徴を以下にまとめました。 他のモデルを凌駕する性能 GPT-4oは、OpenAIの以前のモデルであるGPT-4 Turboや、ライバル会社のClaude 3 Opusなどの大規模言語モデルと比較して、頭ひとつ抜けた性能向上を実現しました。サム・アルトマンCEOは、今年4月に "Chatbot Arena" でgpt2というコードネームでテストされていた

                                                                                    OpenAI、次世代AIモデル「GPT-4o」を発表