並び順

ブックマーク数

期間指定

  • から
  • まで

1 - 40 件 / 77件

新着順 人気順

shi3zの検索結果1 - 40 件 / 77件

  • OpenInterpreter / ついにAIがガチのアシスタントに!これは凄い、というか凄すぎる|shi3z

    凄いものが出てきてしまった。 ChatGPTの「Code Interpreter」が話題になったが、あれはあくまでクラウド上で動いているだけ。それを模してローカルで動作するようになった「Open Interpreter」は、衝撃的な成果である。 Open Interpreterのインストールは簡単。コマンド一発だ $ pip install open-interpreter起動も簡単 $ interpreter -yこれだけでOK。 あとはなんでもやってくれる。 たとえばどんなことができるのかというと、「AppleとMetaの株価の推移をグラフ化してくれ」と言うとネットから自動的に情報をとってきてPythonコード書いてグラフをプロットしてくれる。 凄いのは、ローカルで動くのでたとえばApplescriptを使ってmacOSで動いているアプリを直接起動したり操作したりできる。「Keynot

      OpenInterpreter / ついにAIがガチのアシスタントに!これは凄い、というか凄すぎる|shi3z
    • 俺に起業の相談をするな|shi3z

      最近よく聞かれるので改めて言っておく。俺に起業の相談をするな。一切受けつけていない。突然事業のアイデアを言われても俺は助けないし助けられない。 俺が相手にするのはUberEatsのユーザーと、昔から一緒に仕事をしている人の紹介だけだ。もうすぐ五十路が見えているというのに新たな人間関係を構築しようとするほど俺は暇でも気長でもない。 相談されるとそれだけで僕の頭脳が無駄に消費される。俺に相談するというのは基本的に泥棒である。俺は何か聞いたら自分でも意識しないうちに気の利いた解決策を考えてしまう。俺にとって俺の頭脳は商売道具だから、俺に起業の相談をするというのはタダでイラストレーターに絵を描けと言ってるのと同じだ。 相談を受けなくていいようにたくさん記事を書いてるし本も書いている。俺の情報を一方的に発信するのは構わないのだが、誰かのへんな考えを聞いて時間を浪費したくない。時間は限られているのだ。

        俺に起業の相談をするな|shi3z
      • LINEの3.6B言語モデルで遊んだら爆笑した|shi3z

        LINEから36億(3.6B)パラメータの大規模言語モデル(LLM)が公開されたので早速遊んでみた。正確には遊んだのは昨日のデイリーAIニュースなのだが、面白かったのでこちらにも転載する。 細かいやり方は大先生のページを参照のこと。 例によってこんな関数を書いた def line(prompt): # 推論の実行 input_ids = tokenizer.encode(prompt, add_special_tokens=False, return_tensors="pt") tokens = model.generate( input_ids.to(device=model.device), min_length=50, max_length=300, temperature=1.0, do_sample=True, pad_token_id=tokenizer.pad_token_i

          LINEの3.6B言語モデルで遊んだら爆笑した|shi3z
        • AIを学ぶのに必要な最低限の数学の知識は5つだけ!|shi3z

          最近、「AIを理解したくて代数幾何の教科書を勉強しているんですよ」という人によく会う。 五年前くらい前に、note株式会社の加藤社長も「社内で代数幾何学の勉強会を開いてるんですよ」と言っていた。僕はその都度「それは全く遠回りどころか明後日の方向に向かってますよ」と言うのだがなかなか聞き入れてもらえない。 確かに、AI、特にディープラーニングに出てくる用語には、ベクトルやテンソルなど、代数幾何学で使う言葉が多い。が、敢えて言おう。 代数幾何学とAIはほとんど全く全然何も関係していないと。 なぜこのような不幸な誤解が生まれてしまうかの説明は後回しにして、意地悪をしても仕方ないので、AIを理解するために最低限知っておかなければならない用語を5つだけ紹介する。 テンソル(スカラー、ベクトル、行列など)おそらく、「テンソル」という言葉が人々を全ての混乱に向かわせている。 Wikipediaの説明は忘

            AIを学ぶのに必要な最低限の数学の知識は5つだけ!|shi3z
          • もうみんなプログラマーになれるよ|shi3z

            僕の20年来の親友にnpakaというプログラマーがいるんだけど、彼はもう超凄い。何でもすごい。何でも書けるし何でも早い。本を書くのもプログラムを書くのも、新しいわけわかんない説明書がバグだらけの環境に慣れるのも早い。 んで、これまではちょっとしたことも難しいことも全部npaka(布留川君)に頼んでたんだけど、最近二人とも独立したからつまんないこと頼むのは悪いなと思って「あれはできるんだっけ」くらいのことは自分で何とかしようかなと思った。 それでChatGPTに「Swiftで⚪︎⚪︎やるにはどうすんの?」と聞いたら、Swiftについてほとんど何も勉強してないのに作りたいものが何となくすぐにできてきちゃって、でもまあやっぱりChatGPTだと知識が古いので詰まったらネットで検索すると、だいたい結局npaka(布留川君)のページが出てきてやはり信頼と実績の大先生(仲間内ではそう呼ばれている)です

              もうみんなプログラマーになれるよ|shi3z
            • プログラミングの超基本的な考え方をド文系の人に説明した動画|shi3z

              哲学者の東浩紀さんと思想史と近代科学史(特にコンピュータ史)の本を一緒に書いてみようという企画が今年から立ち上がった。 すると東さんがある日の生放送で、「しかし俺も最低限プログラムくらいかける必要があるんじゃないか。しかし最低限のプログラムとは何か」と言っていたところ、シラスの桂さんが「エラトステネスの篩ふるいとかですかねえ」と言っていて、もうエラトステネスと聞いたら黙ってはいられない吾輩が怒涛の勢いで生放送したところ、東さんが一番乗りで入ってきてくれたのでその場でライブコーディングしながらプログラムの書き方を簡単に教えることにした。 https://shirasu.io/t/zelpm/c/shi3zlab/p/20240105163405 プログラミング言語習得のコツプログラミング言語は、言語であるため、マニュアルを頭からお尻まで読んで内容を暗記するよりも、「これってどうやんの?」「こ

                プログラミングの超基本的な考え方をド文系の人に説明した動画|shi3z
              • 驚異の1ビットLLMを試す。果たして本当に学習できるのか?|shi3z

                昨日話題になった「BitNet」という1ビットで推論するLLMがどうしても試したくなったので早速試してみた。 BitNetというのは、1ビット(-1,0,1の三状態を持つ)まで情報を削ぎ落とすことで高速に推論するというアルゴリズム。だから正確には0か1かではなく、-1か0か1ということ。 この手法の行き着くところは、GPUが不要になり新しいハードウェアが出現する世界であると予言されている。マジかよ。 https://arxiv.org/pdf/2402.17764.pdf ということで早速試してみることにした。 オフィシャルの実装は公開されていないが、そもそも1ビット(と言っていいのかわからない,-1,0,1の三状態を持つからだ。 論文著者はlog2(3)で1.58ビットという主張をしている)量子化のアルゴリズム自体の研究の歴史は古いので、BitNetによるTransformerの野良実装

                  驚異の1ビットLLMを試す。果たして本当に学習できるのか?|shi3z
                • GPTのモデル構造を可視化した|shi3z

                  GPTのモデル構造を目で見てみたい! そんな気持ち、わかるでしょ? 技研フリマをやりながら、どうにかこうにか出力したよ ご覧あれ やり方メモ from transformers import AutoTokenizer, AutoModelForCausalLM from torchviz import make_dot tokenizer = AutoTokenizer.from_pretrained("gpt2") from transformers import pipeline, set_seed generator = pipeline('text-generation', model='gpt2') m= generator.model x= m.generate() y= m.forward(x) image = make_dot(y.logits, params=dict(

                    GPTのモデル構造を可視化した|shi3z
                  • プレ・シンギュラリティ、もう始まってない?|shi3z

                    毎日AIニュースを追いかけていると、当然、波がある。 「今週は落ち着いてるな」とか「今日はやばいな」とか。 今日は、久々に「やばいな」という日だった。 まず、一日のうちにSOTA(State Of The Art)超えしたという大規模言語モデルを三つくらい見た。明らかにおかしい。 さらに、AttentionとMLPを使わない大規模言語モデルの実装も見た。世界を三次元的に解釈して合理的な質問と答えを行う大規模言語モデルもあれば、4ビット量子化した60モデルは8ビット量子化した30Bモデルよりも高性能という主張がなされたり、Googleは論理回路の設計を強化学習で行なっているという。どれもこれもにわかには信じ難いが、今目の前で起きていることだ。 「シンギュラリティ」の定義には、「AIがAIを設計し、改良し続ける」という部分があるが、今のAIは人間も考えているが、実はAIがAIを設計している部分

                      プレ・シンギュラリティ、もう始まってない?|shi3z
                    • Apple Vision ProはHoloLensの完成形。現時点での限界値|shi3z

                      昔は海外の電波を発する新製品は国内で使用できなかったが、今は総務省の技適の特例制度を利用することでいち早く試すことができる。 「海外法令」云々のところで多少つまづいたが、これはFCC IDを検索すれば解決した。 https://fccid.io/BCGA2117 VisionProのFCC IDはBCGA2117だった。 これで準備完了。 吾輩は、かつては1990年代にキヤノンのMR(混合現実感)システムや理化学研究所のSR(代替現実感)システムを試し、大学院の履修生をやっていた頃はVR特講を受講し、学生対抗国際VR(人工現実感)コンテストに参加したこともある。htc Viveでいくつかのデモを作り(ほとんどは非公開)、Oculusもほとんど持ってるくらいはHMD好きである。片目リトラクタブルHMDで自転車の走行を支援するシステムのデモも2008年頃に作った。 2017年には機械学習したM

                        Apple Vision ProはHoloLensの完成形。現時点での限界値|shi3z
                      • Command-R+の衝撃! 100Bモデルで本当にこんなことできんの!?ダウンロードしてローカルで実行可能|shi3z

                        Command-R+の衝撃! 100Bモデルで本当にこんなことできんの!?ダウンロードしてローカルで実行可能 Transformerの発明者らが起業したCohereAIがとんでもないモデルを出してきた。この業界では毎週のように「えーー!」ということが起きるのだが、その中でも年に1,2回起きる「えーーーっ」が起きたのでブログでも紹介しておきたい。 Command-R+(おそらくコマンダープラスと読むのが正しい)というモデルは、わずか100Bで、GPT-4,Claude-3並と言われるモデルだ。しかし、それを主張するだけのモデルなど腐るほどある。だが、実際に触ってみると期待外れということが多かった。 ところがCommand-R+は、その性能は桁違いである。というか、もはや僕という人間如きがちょっと触ったくらいでは「GPT-4よりいいね」とか「ここら辺甘いね」とか判断がつかなくなってきてる。しか

                          Command-R+の衝撃! 100Bモデルで本当にこんなことできんの!?ダウンロードしてローカルで実行可能|shi3z
                        • 東浩紀「訂正可能性の哲学」はAI関係者必読だ!|shi3z

                          先週、今週とあちこちへ出張が続いているので、移動時間の合間、ネットが途切れる山奥にさしかかったあたりで東浩紀「訂正可能性の哲学」を読んだ。東さんの本はいつもそうなのだが、あまりの内容に驚愕した。 そして昨日はたまたま東さんにVisionProを体験させる約束をしていた日なので、会う前に一気に読み終えた。すごい。もっと早く読めばよかった。 東さんの本は基本的に「凄すぎる」ので、読むと影響を受けすぎてしまってしばらく自分の思考が戻ってこない状態になる。しかし最近の僕は、むしろ忙しすぎて誰かの思考を取り入れたいモードになっていたのだ。 その意味で、まさに今の時代に必要とされている本だと思うし、本当にすごい。10年前に上梓された「一般意志2.0」の続編でもあり、なおかつアップデートでもある。もちろん読んでなくても全然良い。 特に舌を巻いたのは、落合陽一の「デジタルネイチャー」や成田雄介の「無意識デ

                            東浩紀「訂正可能性の哲学」はAI関係者必読だ!|shi3z
                          • AIを語りたいなら最低限Pythonをやるべき。足し算より簡単なんだから|shi3z

                            昨日は新潟県長岡市に行って、市役所の職員向けと、一般向けに二回の講演を行った。 市役所の職員からの質問事項をよく読むと、ChatGPTを闇雲に何にでも使おうとして苦戦している姿が見てとれた。 たとえばこんな感じだ。 ⚪︎時に東京駅につく新幹線を予約したいとChatGPTに言ったが、公式サイトをチェックしろと言われた 我々からすればその回答は当たり前なのだが、闇雲になんでもChatGPTでやろうとするとこうなってしまうという典型的な例だった。当たり前だが、その目的ならえきねっと一択だ。 ChatGPTには限界がある。しかも低い。 だから通常はPluginと組み合わせたり、プログラムから呼び出したりするという「工夫」が必要になる。 GPTを使うプログラムを書くのはものすごく簡単だ。 たぶんプログラムの世界でも最も簡単な部類だろう。 たとえば僕がプログラムでGPTを使おうかなと思った時、こんなふ

                              AIを語りたいなら最低限Pythonをやるべき。足し算より簡単なんだから|shi3z
                            • 無料でGPT4越え!?ついに来たXwin-LM|shi3z

                              今日のウィークリーAIニュースではnpaka大先生と一週間のニュースを振り返った。今週もいろいろあったが、なんといってもダークフォース、GPT-4越えと言われるXwin-LMである。中国製。 大先生もまだ試してないというので番組内で一緒に試してみた。 もちろんドスパラ製Memeplexマシン(A6000x2)を使用。 >>> from transformers import AutoTokenizer, AutoModelForCausalLM >>> model = AutoModelForCausalLM.from_pretrained("Xwin-LM/Xwin-LM-7B-V0.1") Downloading (…)lve/main/config.json: 100%|██████████████████| 626/626 [00:00<00:00, 56.2kB/s] [2023

                                無料でGPT4越え!?ついに来たXwin-LM|shi3z
                              • Copilot Studioを使ってみた。注意点と実際にかかるお金の話など|shi3z

                                Copilot StudioはMicrosoft 365 E5というお高いパッケージに入らないとプレビュー版すら使えないらしい。 仕方ないので会社で入りましたよ。会社に所属してるのは3人だけど、E5だと25人分のアカウントがついてくる。 しかし!!! 金さえ払えば使えるというほどイージーなものではなかったので皆さんにお伝えします。ちなみにE5に入っただけで月額45000円(1800円x25で)になりました(ただし七日間の試用期間中にキャンセルすれば無料に)。 まずMicrosoft365で企業アカウントを作り、会社のメンバー的な人に個人アカウントを発行します(この時点でかなりハードルが高い)。 そしてCopilot Studioのページからリンクに飛べば、企業の個人アカウントでログインできた。やったぜ! しかしログインしても、様子がおかしい。 なんかフローチャートが出てきて、フローチャート

                                  Copilot Studioを使ってみた。注意点と実際にかかるお金の話など|shi3z
                                • AIで動画&音楽生成はここまで来た!|shi3z

                                  AI動画生成が結構いいところまできた。 Runway-MLのGen2も素晴らしいのだが、オープンソースのZeroscope-v2-xlがすごい 音楽もmusicgenで大体作れる これまで音楽生成には否定的だったが、ここまで作れるなら、DJ機材用のループ素材として十分使える気がする。というか30秒も作れるのでループでは勿体無いというか。「久石譲っぽく」とか「ジョン・ウィリアムズ風」とかでそれっぽいものが出てくる。

                                    AIで動画&音楽生成はここまで来た!|shi3z
                                  • GPT-3.5-Turbo / GPT-4-Turbo 1106のJSONモードの使い方|shi3z

                                    日本時間未明(午前三時)ものすごいスピードで語られたOpenAI初の開発者向けイベントDevDayで発表されたGPT-4-TurboとGPT-3.5-TurboによるJSONモード。 これはものすごく強力なんだけど、Python APIによる使い方がどこにも描いてないので試行錯誤の末見つけましたので共有いたします。 from openai import OpenAI import openai import os openai.api_key = "<APIキー>" client = OpenAI() def gpt(utterance): #response = openai.chat( response = client.chat.completions.create( #model="gpt-4-1106-preview", model="gpt-3.5-turbo-1106", r

                                      GPT-3.5-Turbo / GPT-4-Turbo 1106のJSONモードの使い方|shi3z
                                    • AI時代に起業するということ|shi3z

                                      生成AI以前と以後で、会社のあり方は決定的に変化していくのだと思う。 たとえば、昨日はとある会議で、「この(AI)サービスの原価はいくらか」という議論が沸き起こった。 AIサービスなのだから、AIの利用料くらいしかかからないかというとそうでもない。実際、AIを動かすためにはAIそのものにかかるお金以外の人件費がかかる。誰かに売る人の人件費や、システム開発のための人件費や、サポートのための人件費だ。ただ、AIサービスの場合、人件費を極限まで最小化することができる、という点が決定的に違う。 また「AIの利用料」も、「APIの利用料」なのか、ベアメタルサーバーの月額利用料なのか、それとも自社に持っているGPUマシンの電気代なのか、という議論のポイントがある。 あまり多くの人は語らないことだが、実は起業には再現性がある。 つまり、一度でも事業をうまく立ち上げたことがある経験を持つ人は、次も事業をう

                                        AI時代に起業するということ|shi3z
                                      • 俺はソフトバンクの社員だったことはありません|shi3z

                                        逮捕されたのは別人です。 逮捕されてたら書けないでしょ。今 ソフトバンク元部長らを詐欺容疑で逮捕 架空事業で12億円詐取疑い:朝日新聞デジタル ソフトバンクの事業への投資だとうそを言って12億円をだまし取ったとして、警視庁は8日、同社元統括部長の清水亮(47)=東 www.asahi.com 以下の本も書いてません 徹底解説RPAツール WinActor導入・応用完全ガイド amzn.to 3,960円 (2023年11月08日 22:08時点 詳しくはこちら) Amazon.co.jpで購入する

                                          俺はソフトバンクの社員だったことはありません|shi3z
                                        • ごめんVisionPro誤解してた (๑˃̵ᴗ˂̵)|shi3z

                                          朝起きて、「うーんまだ布団から出たくないな」と思ったとき、おもむろにVisionProを被ってみた。 暗い部屋では認識が格段に悪くなるが、なぜPSVRではこういう使い方をしなかったのかわかった。後頭部だ。 PSVRは後頭部にゴツい部品があって、それで寝ながらVRを見るということが少し難しくなってる。VisionProの標準のバンドはこういうときにちょうどいい。 VisionProでTerminalを動かして、継之助の様子を見る。今日も元気に学習しているようだ。 昨日寝落ちした Amazon Primeの「沈黙の艦隊」第五話と六話を見る。音がいい。空間オーディオに対する長年の研究が結実してる感じ。しかもすごくいい音なのだ。 昨日、路上で歩きながら使ってみた(技適の特例申請には移動経路を申告済み)。路上で使うと思わぬ欠点というか盲点にぶちあたる。ウィンドウがついてこないのだ。 他のHMDと違い

                                            ごめんVisionPro誤解してた (๑˃̵ᴗ˂̵)|shi3z
                                          • 高次元ベクトルを「矢印」とイメージするのがちょっとしっくりこない理由|shi3z

                                            なぜAIを考える時にベクトルを「矢印」と捉えるべきではないのか。 実際には矢印として考えたほうがいい例外もあります。 たとえば、特徴空間の任意の2点の引き算や足し算をするとき。 矢印のメタファーが使えます。 あるベクトルAから別のベクトルBを引いたベクトルCは、BからAへ伸びる矢印としてイメージするのは大丈夫です。 この性質を利用して、プロンプト芸が成り立つケースもあります。 たとえば画像生成系AIで使われるネガティブプロンプトはそういう性質を使っています。 しかし、根本的に、我々が普段イメージする二次元の矢印で示されるベクトルと、十次元以上の高次空間のベクトルは、全く異なる性質をもっていると考えるべきです。低次のベクトルと、高次のベクトルでは、共通する要素はあるけれども、それはごく一部に過ぎないということです。 例を挙げましょう。 1次元のベクトルは、正負の向きと大きさを持ちます。 数直

                                              高次元ベクトルを「矢印」とイメージするのがちょっとしっくりこない理由|shi3z
                                            • VisionOSでプログラミングをほんのちょっとだけ触ってみて思ったこと|shi3z

                                              VisionOSのSDKが公開されたので出先でダウンロードして早速試してみた。エミュレータはそれだけで楽しい。VisionOSでどんなことができるか想像しやすい。どんなイメージビデオよりも説得力があり、肌触りがある。 VisonOSのSDKはMacとApple IDがあれば誰でも無料でダウンロードできる。たぶん。僕は何年も個人アカウントのApple Developer Promgramへの支払いをしてない。 UnityでVisionOSを触る前にSwiftでVisionOSを触ってみる。 触ってみてわかったのは、全く絶望的なくらい、「空間大のiPad」でしかないということ。 プログラミングモデル的にはこれまでiOSアプリを作ってきた人にとってはかなりとっつきやすいだろう。例えば平面的なアプリなら、ほとんどそのまま動きそうである。 反面、例えばお絵描きアプリみたいなのが標準で入っているが、お

                                                VisionOSでプログラミングをほんのちょっとだけ触ってみて思ったこと|shi3z
                                              • AI Bunchoモデルで何か物語めいたものを生成する|shi3z

                                                もともと小説を書くためのAIなので物語には強いだろう。しかも日本製だし。 ということで大先生が早速試していた。 僕も真似をしてさっそく使ってみたのだが、そのままだとかなり短い文章しか出てこない。使い方に工夫が必要そうである。 そこでこんなコードを書いた。 def b(prompt): input_ids = tokenizer.encode( prompt, add_special_tokens=False, return_tensors="pt" ).cuda() tokens = model.generate( input_ids.to(device=model.device), max_new_tokens=320, temperature=0.6, top_p=0.9, repetition_penalty=1.2, do_sample=True, pad_token_id=tok

                                                  AI Bunchoモデルで何か物語めいたものを生成する|shi3z
                                                • こんなこと書いていいの!?電通のヤバい手口を暴露した電通マンの知られざる悲惨「電通マンぼろぼろ日記」|shi3z

                                                  昨日は技研フリマで昼から飲んでしまい、技研バーが始まる頃には椅子で寝ていた。 まつゆう*と交代して家に帰り、そのまま寝てしまったので午前四時くらいに目が覚めた。 猪瀬直樹の「ラストニュース」を全部読んでしまったので、「ミカドの肖像」を読み始めたが眠くなってしまい、別の本を探した。 買った覚えはないのだが、いつの間にかKindleにダウンロードされていた「電通マンぼろぼろ日記」を読み始めたらもう止まらない。一気に読み終わってしまった。 僕は電通とは多少関わりがある。一時期は毎年のように電通の研修で講師をしていたし(今考えるとなぜ僕がそんなことをしていたのか謎すぎる)、多分本書に登場するF社とも仕事をしたことがある。 電通の友達とは今でも毎月何かしらで飲んでいる。 僕が本格的に企画の基礎を学んだのは電通の仕事が最初で、堺屋太一の「インターネット博覧会(インパク)」向けの企画を作る時だった。 電

                                                    こんなこと書いていいの!?電通のヤバい手口を暴露した電通マンの知られざる悲惨「電通マンぼろぼろ日記」|shi3z
                                                  • 噂のノーコードAIシステム開発環境Difyを使ってツールを作ってみた。使った感想|shi3z

                                                    最近にわかに話題のLLMツール「Dify」を僕も使ってみた。 いいところと「?」となったところがあったので纏めておく Difyとは、GUIでワークフローを組むことができるLLM-OPSツールだ。 ComfyUIのようにワークフローが組めたり、GPTsのように自分専用のアシスタントを作れたりできる。 特に、OpenAIのGPTシリーズとAnthropicのClaude-3、そしてCohereのCommand-R+なんかを組み合わせて色々できるところは良いところだと思う。また、ローカルLLMにも対応しているので、企業内でのチャットボットを作るんだったらGPTsよりこっちの方がいいだろう。 元々色々なテンプレートが用意されているが、テンプレだけ使うとGPTsっぽいものを作れる(それだってすごいことだが)。テンプレを改造するだけでも欲しいものが作れる人はいるし、ここはノーコード環境と言える テンプ

                                                      噂のノーコードAIシステム開発環境Difyを使ってツールを作ってみた。使った感想|shi3z
                                                    • 1BitLLMの実力を見る|shi3z

                                                      1BitLLMは本当に実現可能なのか?そして、実現されると予告されていることに意味はあるのか? ようやく再現実装に成功した人が現れたので僕も試してみた。 ちなみに1Bit(1.58bit) LLMについての考察はこのページが面白いので一読をお勧めする。 ただし、普通のHuggingFaceのお作法とはかなり違うので注意が必要。 まず、このHuggingFaceリポジトリを丸ごとgit cloneする $ git lfs install $ git clone https://huggingface.co/1bitLLM/bitnet_b1_58-3B $ cd bitnet_b1_58-3Bこれをやらずにいつもの凡例みたいにいきなりpipelineに読み込もうとすると謎のエラーが出て悩まされることになる。海外でも悩んでる人が何人もいるみたいだ。まあ個人的には「こんな説明で誰がわかる?」と思

                                                        1BitLLMの実力を見る|shi3z
                                                      • ChatGPT/Co-Pilotで改めてわかる「プログラミング」とはどんな作業だったのか|shi3z

                                                        最初にプログラミングを始めた時は、学校にリファレンスマニュアルを持って行って全てのページを丸暗記した。丸暗記が目的だったわけではなく、読んで知識を吸収していくのが楽しくてしょうがなかった。 PC-9801のN88-BASICリファレンスマニュアルは、読み物としてとても良くできていた。各ステートメントの紹介があり、パラメータの説明があり、ごく簡単なサンプルコードも書いてあった。大体見開き一ページで一つのステートメントの説明なので読みやすかったし、ベーマガかなんかで読む呪文のようなコマンドの意味を詳細まで知れて楽しかった。 だがこれを「楽しい」と思う人は少数派のようだった。 僕のクラスメートのうち、相当数の人が親にパソコンを買ってもらい、BASICに挑戦したが、全くその世界に馴染めず結局ゲーム機になって行った。僕も親父がゲームなんかを買ってきたら話は変わっていたかもしれないが、親父の教育方針で

                                                          ChatGPT/Co-Pilotで改めてわかる「プログラミング」とはどんな作業だったのか|shi3z
                                                        • 数式は触ってみないと何も分からない|shi3z

                                                          数式って不便すぎないか? いやわからん。 俺は数学苦手だから。 でも例えば、プログラミング言語は、現代普通に使われるものだけ挙げても、C#、JavaScript、Ruby、Python、PHP、Java、Swiftとまあ軽く7種類くらい。C系で言えば、C、C++もあるし、C++もバージョンによってはほとんど別物になったりする。プログラミング言語ではない人工言語としても、HTML、SQL、VHDL・・・アセンブリ言語などがあり、使う人は少ないが恩恵に預かってる人が多い言語で言うとLISPやHaskellなんてのもある。 しかもこれらのプログラミング言語は、すべて「同じアルゴリズム」を記述することが可能なのだ。 「同じことを説明するのに複数の方法(言語)がある」と言うことが一体何の意味があるのか、プログラマー以外の人にはわかりにくいだろうが、プログラマーにとっては大問題である。 それぞれのプロ

                                                            数式は触ってみないと何も分からない|shi3z
                                                          • 注目の日本語大規模モデルLLM-JP 13Bを試す(JSON吐けた)|shi3z

                                                            国立情報学研究所が作ったLLM-JP 13Bが公開されていたので早速試してみた。色々なモデルが公開されているが、全部盛りっぽい 「llm-jp/llm-jp-13b-instruct-full-jaster-dolly-oasst-v1.0」を試す。 マシンはもちろんドスパラ製Memeplexマシン(A6000x2)だ。 import torch from transformers import AutoTokenizer, AutoModelForCausalLM tokenizer = AutoTokenizer.from_pretrained("llm-jp/llm-jp-13b-instruct-full-jaster-dolly-oasst-v1.0") model = AutoModelForCausalLM.from_pretrained("llm-jp/llm-jp-13b

                                                              注目の日本語大規模モデルLLM-JP 13Bを試す(JSON吐けた)|shi3z
                                                            • AI搭載コードエディタCursorが快適すぎる|shi3z

                                                              VScodeよりもさらに過激にAIを取り入れたコードエディタであるCursorが面白そうだったので試してみたところ、もうSublime Textちゃんに戻れない体になってしまったかもしれない。 VScodeの場合は、あくまでもコードは補完されるもの。 それに対して、Cursorは、VScodeのコード補完的な機能に加えて、コードについて相談できる。 日本語で語りかけることも可能。返事が英語になっちゃうこともあるけどご愛嬌。シェルも内蔵されているのでアプリを切り替えることなくコードを実行できる ディレクトリ内の複数のファイルを見てくれるのでもっと高度なことも頼めるのかもしれない。スネークゲームを作ってくれと言ったらPythonでうごくテキストベースのスネークゲームを作ってくれた 個人的にはHHKB Studioとの相性がとてもいい気がする。全てホームポジションから全く手を離さずに操作できる。

                                                                AI搭載コードエディタCursorが快適すぎる|shi3z
                                                              • 学生起業で絶対に失敗しない方法|shi3z

                                                                iUの中村伊知哉先生が、「うちの学生の目標は起業率100%だが大半が就職してしまった」と嘆いていらしたので、「学生起業は基本的に失敗しないように教育することができる」という話をして、「そんな方法があるなら教えてくれ」と言われたのだがしばらく書くのを忘れていた。今日は暑くて出かけたくないので書く。 学生起業すべき理由大学の授業は大半が意義がよくわからない。なんのために学ぶのか、それが社会でなんの役に立つのかわからない。当たり前である。社会に出たことがないんだから。だから僕は、18歳で(起業に限らず)働いて、20歳くらいで大学に入学するのをお勧めする。授業の有り難みがまるで違う。二浪してる人なんか沢山いるし。 ただまあ、18歳で働き口を探すのも大変だという話はあるだろうから、親の脛を齧れる学生時代に起業しておくことを強くお勧めする。 なぜ学生起業を勧めるか? 1.社会の仕組みに触れることができ

                                                                  学生起業で絶対に失敗しない方法|shi3z
                                                                • これぞ革命!?ゼロから大規模言語モデルを学習できるReLORA登場(7/18追記あり)|shi3z

                                                                  導入 本当に革命的な技術なのか? 「君たちはどう生きるか」で驚いている間にすごい論文が世界の話題を掻っ攫っていた。 その名も「ReLORA」簡単に言えば、「事前学習にLoRAを使う」というものである。 これは本当に革命的な発見かもしれないので、僕の仮説も含めて丁寧に説明する。 まず、大前提として、「LoRA」という技術について LoRAは、「Low Rank Adaptation(日本語で言うとすれば低階適応)」という技術で、これまでは主にファインチューニングに使われてきた。 ファインチューニングとは、あらかじめ学習されたニューラルネットワークに対して追加で学習させ、概念を強調させたり新しく覚えさせたりする。 たとえば、僕の顔でStableDiffusionをファインチューニングすれば、僕みたいな顔の絵がどんどん出てくる。 言語モデルにおけるLoRAも同様で、新しい概念や「こういうやりとり

                                                                    これぞ革命!?ゼロから大規模言語モデルを学習できるReLORA登場(7/18追記あり)|shi3z
                                                                  • いま「新しい数学」が必要だ。助けて数学者!|shi3z

                                                                    最初に言っておくが、僕は数学は全く苦手だ。数学が得意な人から見たらかなり的外れなことを言ってるのかもしれないが、僕にとっては切実な悩みなのである。「そんなのは簡単だよ」という人がいたらどうか教えて欲しい。 点がある。 これを0次元と言う。 点が横に並行移動して伸びて線になる。この線は無限大の長さまで伸びることができる。これを一次元という。 任意の長さ1の線が縦に1だけ動く、正方形になる。これを二次元と言う。 正方形を長さ1だけ今度は奥行方向に伸ばす。立方体になる。これを三次元という。 ここまでに「3つの方向」が出てきた。横、縦、奥行。 そのどれでもない四つ目の方向を考える。ただしこれは「時間軸」ではない。自由に行き来できる縦、横、奥行、ではない四つ目の「方向」だ。 立方体をそっち側の方向に動かす。これを超立方体といい、この空間を4次元という。 この長立方体をさらに「べつの方向」に動かす。こ

                                                                      いま「新しい数学」が必要だ。助けて数学者!|shi3z
                                                                    • AIが社長の会社「FreeAI」を設立しました|shi3z

                                                                      僕は2003年に最初の会社を作って、以来20年で10社の設立に関わった。 しかし、今年は5社設立して、その全てで社長をやっていない。 なぜかというと、社長を僕がやるのはものすごく非効率的だからだ。 僕は著者で、YouTuberで、研究家で、配達員である。 それぞれが深く連関していて、不可分であり、社長などやっている暇はない。 社長という仕事がクソなのは「教養としてのAI講座」などで散々言及しているためここでは説明は避けるが、こんなクソな仕事は人間にやらせるべきではない。非人道的だからだ。 そこでAIが社長の会社を作ることにした。 社長はAIであるため、どんなにクソなことがおきても、社長の責任ではない。 ただし、現行法では社長は犬でもネズミでもなれるが、代取にはなれないため、便宜上、代表取締役社長秘書を設置することにした。 しかしあくまでも社長は「継之助つぐのすけ」ことAIスーパーコンピュー

                                                                        AIが社長の会社「FreeAI」を設立しました|shi3z
                                                                      • 一人の男の行動が、人類を変えた Stay hungry. Stay foolishとタカヤノリコとワタナベマリナ|shi3z

                                                                        一人の男の行動が、人類を変えた Stay hungry. Stay foolishとタカヤノリコとワタナベマリナ かなり不勉強な人間でも、スティーブ・ジョブズの名前くらいは知っているだろう。Appleを創業し、追放され、再び戻り、世界で最も成功した企業にした人物だ。このスティーブ・ジョブズが最も影響を受けた人物がスチュアート・ブランドである。 スチュアート・ブランドは当時のヒッピー達のカリスマであり、ジョブズがスタンフォード大学で行った有名なスピーチを締め括った「Stay hungry.  Stay foolish」は、まさにブランドの言葉だ。ハングリーであれ。バカであれ。とでも訳せばいいだろうか。 スチュアート・ブランドという人物は極めて特異な人物である。 そんな人物がシリコンバレーにいたことすらまるで不思議なほどだ。 ブランドを有名にした最初の事件は、「なぜ我々は地球全体の写真をまだみ

                                                                          一人の男の行動が、人類を変えた Stay hungry. Stay foolishとタカヤノリコとワタナベマリナ|shi3z
                                                                        • 最高すぎるキーボードHHKB Studio。|shi3z

                                                                          やっと昨日、HHKB Studioが発売開始になった。 二週間前くらいに貰って、あまりの快適さに感動した。 静電容量式からメカニカルに変わったと言われても気づかないレベル。 というかそもそもこれまでのHHKBはキータッチは素晴らしいもののMacとWindowsとLinuxを切り替えて使う俺にはディプスイッチで設定するとか二十世紀の設定方法がどう考えても腑に落ちなすぎた。 マルチ対応でも機種が変わったらディプスイッチ変更しなきゃなんないとかあたまおかしいだろ。 ・・・というのに比べると、今回のHHKB Studioはディプスイッチがソフト化された。これだけで優勝レベルだが、設定アプリでは説明なしにディップスイッチを設定できるようになってる。控えめに言ってこれを考えたやつは頭がおかしい。 これ見て「あー二番のディップをONにしようかな」とか思えるやつは頭がおかしい徹底的なユーザーアンフレンドリ

                                                                            最高すぎるキーボードHHKB Studio。|shi3z
                                                                          • これは衝撃!1.5Bで超高性能LLM!RWKV-5-World-v2|shi3z

                                                                            Transformerという手法は必ずしも万能でも効率的でもない。 むしろTransformerは非効率的だというのが一般的な見解だ。しかし、Transformerには実績があり、実績という壁の前には多少(かどうかわからないが)の非効率は無視される。 他にもHyenaなどもっと効率的と思われる手法が提案されているが、そうした提案の一つがRWKVである。 そもそもなぜTransformerが必要になったかというと、それまで言語モデルに用いられていたRNN(Recurrent Neural Network)は並列処理が難しかったからだ。並列処理が難しい理由は簡単で、言葉というのは過去から未来へ向かって一方向に進むからである。 言語モデルは全て「この文章に続く単語は何か」を予測し、それを連鎖的に繰り返していくが、RNNは単語をひとつひとつ選んでいかないと次の単語を原理的に予測できない。 これを並

                                                                              これは衝撃!1.5Bで超高性能LLM!RWKV-5-World-v2|shi3z
                                                                            • 清水亮(shi3z)さん「逮捕されたのは別人です」 同姓同名のソフトバンク元部長逮捕で

                                                                              「逮捕されたのは別人です」――実業家・エンジニアの清水亮さん(@shi3z)は11月8日、同姓同名のソフトバンク元部長が詐欺容疑で逮捕された件をめぐり、noteにこう投稿した。 2人ともIT業界で働き、姓名の漢字まで同じ、年齢も40代後半とプロフィールがよく似ており、勘違いする人も出ているようだ。 元ソフトバンクの清水容疑者は、風俗店従業員と共謀し、ソフトバンクのシステム更新をかたって架空の投資話で現金12億円をだまし取った疑いがもたれている。 実業家の清水さん(@shi3z)はソフトバンクに勤めた経験はなく、逮捕された人とは別人だ。清水さんはXでそう説明した上で、過去に出会ったことのある同姓同名の人の思い出話などをつづっている。 関連記事 ソフトバンクの事業かたり12億円詐取 容疑で元部長ら逮捕 ソフトバンクのシステム更新をかたり、架空の投資話で現金12億円をだまし取ったとして、警視庁捜

                                                                                清水亮(shi3z)さん「逮捕されたのは別人です」 同姓同名のソフトバンク元部長逮捕で
                                                                              • AIで人類が滅ぶとか冗談だろと思っていたのだが|shi3z

                                                                                昨日、ひょんなことからピープロ作品のフィルムをデジタルアーカイブにして保存するプロジェクトを見に行くことになった。 ちなみに僕はピープロ作品はマグマ大使以外見たことがない。 ライオン丸やザボーガーは生まれる前に終わっていた。 今、ピープロ作品はなぜか株式会社カラーが権利を持っているらしく、冒険王という雑誌のために撮影された当時の作品の6x6判のカラーポジフィルムが発掘されたので、そのデジタルアーカイブを残したいというプロジェクトをクラウドファンディングしているのだという。ちなみにオール・オア・ナッシング方式なので、現在300万円近くまで来ているが、目標の500万円に達しなければ不成立。なんでこんなに高いハードルが課されているのかは不明。 僕は全く見たこともないピープロ作品なのだが、ライオン丸とタイガーセブンといえば、トチオンガーセブンのパクリ元強烈なリスペクト先であるため、頼まれもしないの

                                                                                  AIで人類が滅ぶとか冗談だろと思っていたのだが|shi3z
                                                                                • VisionPro以後|shi3z

                                                                                  ピピピッ・・・ピピピッ 電子音がする。アラームだ。寝ぼけ眼を擦りながらメガネを見る。 メガネの表面には、現在時刻が表示されている。 「げ、もう七時半!?」 布団から飛び起きてパジャマを脱ぐ。メガネをかけると、今日の最初の会議まで残り28分と表示される。 歯磨きをして、朝風呂に入りながら今日のニュースをチェックする。 寝てる間に何があっただろう? 「アイナー、AI関連のニュースは?」 メガネに映る画面の片隅に女性の形をしたエージェントアプリを呼び出す。 アイナー・・・AINaAは、Augmented Intuisive Navigator and Automatorの頭字語だ。 自作のもので、24時間新しいAIニュースやReplicateで公開されたAIをチェックし、評価し、報告する価値があると判断したものだけを選別する。 <<一時間ほど前に、10テラトークン長のペンタモーダルモデルが公開さ

                                                                                    VisionPro以後|shi3z