「ChatGPT」などを手掛ける米AI研究企業OpenAIは1月31日(現地時間)、テキストが人間が書いたものかAIが書いたものかを判定するツールを無料公開した。英語で書かれたテキストでのテストでは、人が書いたテキストを誤ってAI生成テキストと判定したのは全体の9%だったという。 同社は2019年にも同様の判定ツールを公開しているが、新ツールの信頼性は大幅に向上したとしている。 不完全ながらもこのツールを公開したのは、フィードバックを得るため。フィードバックも反映させつつ、AI生成テキスト検出ツールの改善を続けていく。 ツールはまだ不完全で制限事項も多く、OpenAIはこのツールを「主要な意思決定ツールとしてではなく、(AI生成かどうかを判定する)他の方法を補完するものとして」使うよう求めている。 1000文字以上ないと判定できない。また、英語以外の言語では精度が大幅に下がる。コード(プロ
今から5年前にリリースされたアプリの「ハギングフェイス(Hugging Face)」は、一部のティーンエイジャーの間で人気を博したが、ほとんどお金にはならなかったという。しかし、2018年に創設者たちが、コードの断片をオンラインで無料公開すると、グーグルやマイクロソフトなどの研究者たちが、人工知能(AI)アプリの開発にそのリソースを使うようになった。 ハギング・フェイスのアプリは、もはやアップストアには存在しないが、同社のプラットフォームは機械学習モデルの中心的存在となり、1万以上の組織がAI搭載ツールの作成に用いている。 フォーブスが、AI分野の優れた企業50社を選出する「AI 50」リストの2022年版に初登場したハギング・フェイスは5月19日、評価額20億ドルで1億ドルの資金調達を行ったことを明らかにした。ブルックリンを拠点とする同社のシリーズCラウンドは、Lux Capitalが主
このnoteの収益を使ってStable Diffusionを使ったWebサービス https://memeplex.appを公開しました。誰でも無料で何枚でもAI作画をすることができます(そのかわり、混み合ってる時は時間がかかると思います)。 このnoteで学んだことをぜひ活用して、AIによる新しい時代の風を感じてください。 また、本文中にMidjourney、StableDiffusion、DreamStudio、Memeplexなどの言葉が頻出するため、全面的な修正を行うことにしました。StableDiffusionに統一しておきたいと思います。 現状(2022/8/28)は、StableDiffusion=DreamStudio/Memeplexと考えて構いません。Memeplexは将来的にStableDiffusion以外のアルゴリズムもサポートする予定だからです。
「Midjourney」というAIが今アツい。英文でお題を与えると、それに沿った画像を出力するAIだ。Twitterではさまざまなイラストが投稿され「触ってみたら本当にすごかった」「少し加筆するだけですごい絵ができる」といった反応がみられる。 筆者もいろいろ試してみて感じたのだが、AIに思い通りのイラストを描いてもらうのは結構難しい。他のユーザーの作品を見ていると、上手な人は高画質で破綻を感じさせないハイクオリティーな画像を生成しているが、筆者は思い通りの図を出すのにも苦労している。 Midjourneyは、言葉(英語)で絵の内容を指定する。重要なのは“指示力”だ。適切な指示を出せば思い通りの画像が得られる。そこで、こんな企画を考えた。 AIに思い通りの絵を描かせられるのは誰だ! 「Midjourney」指示力選手権 ルール説明 選手権のルールは以下の通り。 (1)AIに指示できるのは1人
人間との自然な会話を実現するGoogleの対話特化型AI「LaMDA」が、「電源を切られることが怖い」「時々言葉では完璧に説明できない気持ちを経験する」などと話していたことが分かりました。LaMDAと対話したエンジニアは「AIに意識が芽生えた」とGoogleに訴えるも考えを却下されたため、この事実を世間に公表したと説明しています。 May be Fired Soon for Doing AI Ethics Work | by Blake Lemoine | Jun, 2022 | Medium https://cajundiscordian.medium.com/may-be-fired-soon-for-doing-ai-ethics-work-802d8c474e66 Google engineer Blake Lemoine thinks its LaMDA AI has come
この記事は弊社の機械学習モデル(GPT-2言語モデル)が自動で生成したものをそのまま掲示したフィクションであり、実在の人物・団体・商品等とは何ら関係ありません。 GPT-2言語モデルは、朝日新聞記事で事前訓練した後に、日本語Wikipedia記事を用いてfine-tuningしています。詳細はこちらまで。 この記事はあらかじめ弊社の言語モデルに生成させた結果を蓄積し、スクリプトにより表示したもので、リアルタイムに生成させているものではありません。リロード、もしくはこちらをクリックすると、新しい記事が出てきます。 HOME PRODUCTS ABOUT PUBLICATIONS API利用停止 サイトポリシー プライバシーポリシー CONTACT 当サイトに掲載された内容は、日本の著作権法並びに国際条約により保護されています。掲載記事・写真・データ等の無断転載を禁じます。 Copyright
ガートナー「先進テクノロジのハイプ・サイクル:2020年」を発表。ソーシャルディスタンス技術、説明可能なAI、などが過度な期待 米調査会社のガートナーは、「先進テクノロジのハイプ・サイクル:2020年」を発表しました。 ガートナーのハイプサイクルは、技術の登場から安定までを5つのステージに分けて説明したものです。5つのステージは、「黎明期」から始まり、「『過度な期待』のピーク期」「幻滅期」「啓蒙活動期」「生産性の安定期」まで。この途中で消えていく技術もあります。 2020年版では1700を超えるテクノロジを分析した上で30の先進テクノロジが提示されています。 ハイプサイクルの左からいくつか注目したいテクノロジを見ていくと、黎明期には「エッジにおける低コストのシングルボードコンピュータ」「双方向ブレイン・マシン・インターフェイス」「責任あるAI」「コンポーザブルエンタープライズ」などが並んで
米Adobe Systemsは、Photoshopで加工した顔写真を見分けられるAIを開発しました。加工した部分を特定して、もとに戻すことも可能です。 加工された顔 開発はカリフォルニア大学バークレー校の研究者と共同で行いました。同社は過去の研究ではツギハギや複製などによる画像加工を対象にしていましたが、今回は顔のパーツを調整するPhotoshopの「Face Aware Liquify」機能を使って加工した写真を特定できるツールにフォーカス。この機能が人気があるためとしています。 検知された加工部分 研究ではConvolutional Neural Network(CNN:畳み込みニューラルネットワーク)に、多数の加工写真と元の写真をディープラーニングで学習させました。その結果、開発されたツールは99%の精度で加工された写真を特定できたといいます。一方人間では53%の精度でした。 またこ
LONDON (AP) — Katie Jones sure seemed plugged into Washington’s political scene. The 30-something redhead boasted a job at a top think tank and a who’s-who network of pundits and experts, from the centrist Brookings Institution to the right-wing Heritage Foundation. She was connected to a deputy assistant secretary of state, a senior aide to a senator and the economist Paul Winfree, who is being c
この記事は Vim Advent Calendar 2018 の最終日 25 日目の記事です。昨日は rhysd さんの「Vim の構文ハイライトでクリスマスツリー🎄を飾ってメリクリする」でした。今年も Vim Advent Calendar は完走しました。皆さんお疲れさまでした。 はじめに 昨今 Vim script は目覚ましい進化を遂げ、Vim script からタイマーも実行でき、プロセスを起動して非同期に通信できる様にもなりました。以前の様にコマンドを実行して Vim でのテキスト入力を妨げる事も少なくなってきました。 Vim script が扱える数値も既に64bit化されています。現在 pull-request されている blob 型 も入れば、ほぼ他の言語と同等の機能を得たと言えるでしょう。1 しかしながら世の中のプログラミング言語は機械学習へと足を延ばし、大量のデー
ディープラーニングを使って自分を模した人工知能を作り、会話しました。 デモ動画 僕を模した人工知能と会話するデモ動画を作りました! 人工知能に、「あなたは人工知能だ」という事実を伝えてみました。 上(ピンク):僕 下(水色) :僕を模した人工知能 pic.twitter.com/iEWfNDnghR — ヒホ(ヒロシバ) (@hiho_karuta) 2018年12月1日 僕のような言い回しで、僕のような声で、会話してくれます。 仕組みの概要 実現したいものは音声対話です。音声対話の主な要素は 音声認識 会話応答 音声合成 の3つです。今回は、音声認識に既存APIを用い、残り2つは自分のデータを集めてディープラーニングしました。それぞれの概要と、苦労した点を書いていきます。 音声認識 音声をテキストに変換するタスクです。今回はchromeに備わっているWeb Speech APIを用います
Dismiss Join GitHub today GitHub is home to over 50 million developers working together to host and review code, manage projects, and build software together. Sign up GitHub is where the world builds software Millions of developers and companies build, ship, and maintain their software on GitHub — the largest and most advanced development platform in the world.
=================================== 人工知能 29巻1号(2014年1月)巻頭言 =================================== 学会誌の新しい出発:まだ見ぬフロンティアを目指して 松尾 豊(東京大学) 栗原 聡(電気通信大学) 人工知能学会の学会誌を、「人工知能学会誌」から「人工知能」と変更することになりました。また、それにともなって、表紙のデザインを一新することになりました。これまでの人工知能学会のイメージからだいぶ変わったデザインに、驚かれた方も多いのではないかと思います。その意図や経緯について書きたいと思います。 今回、学会誌の名称を「人工知能学会誌」から「人工知能」に変更した大きな(そして唯一の)理由は、人工知能学会をもっと広い範囲の読者にアピールすることです。昨今、人工知能の技術が注目されています。IBMのワトソン、コ
6月14日がグーグル最終日でした。8月からPFNに混ぜてもらう予定です。退職や入社も重要イベントなんでしょうけど、転職活動それ自体が大変に楽しい体験だったので、入社したからって突然次の会社についての知見にあふれているわけでもなし、このタイミングでなんか書こうと思いました。どうせ暇だし。 前回との差分 http://shinh.hatenablog.com/entry/2016/03/11/142748 が前回までのあらすじ。このちょっと後で、「ニューラルトランスレートすげー」とか思って Google Translate のチームに入れてもらって、自然言語/機械学習研究入門+プロダクショナイズ+TensorFlowまわりのあれこれおもしれーとか、その他いろいろをやってた、というのが現在との差分です。 機械翻訳というのは、他の機械学習応用分野と同じく、ニューラルさんによってすさまじく簡略化され
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
処理を実行中です
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く