タグ

kaggleに関するbluescreenのブックマーク (43)

  • Kaggleのハードルを下げたい! - Qiita

    Image generated by OpenAI's DALL·E-3. はじめに こんにちは! 突然ですが、Kaggleのハードルって高くないですか?特に初見だと、複雑なルールや大量のデータなどに圧倒されてしまう人も多いかもしれませんね。また、全て英語なので非英語話者にとってはそこもハードルを上げる原因になっていると考えられます。実際は慣れれば簡単なことも多いのですが、Kaggle慣れするまでにやや時間がかかるのも事実です。そこで、少しでもKaggleのハードルを下げたいと考えて記事を執筆しました。 対象読者様 この記事は、以下のような方をメインに想定して執筆しました。 AIデータ分析機械学習に興味があって、Kaggleに参加しようと思ったけどハードルが高くて躊躇している方 Kaggleに参加したはいいものの、ドロップアウトしてしまった方 Kaggleのハードルを乗り越えたい方

    Kaggleのハードルを下げたい! - Qiita
  • 「Kaggleで勝つデータ分析の技術」から見る実用的な機械学習の知見

    はじめに 機械学習に関する実用的な知見を知るために、「Kaggleで勝つデータ分析技術」を読んだので、Kaggle以外の場面でも活用できる話題をまとめてみた。書は機械学習の基的な内容も含んでいるが、この記事では機会学習に関する一通りの知識を持ち、実問題に利用している読者を想定してまとめた。従って、勾配ブースティング木の仕組みや、回帰タスクの評価方法等、基的な内容については解説しない。記事では、評価の落とし穴や、モデルを改善するための特徴量の工夫、チューニングのTipsについて紹介する。 特徴量 Tips 1: 欠損値の扱い データにはしばしば欠損値が含まれている。欠損値は、そもそも値が存在していない場合の他に、ユーザが意図して入力していない場合や、観測器のエラーによって取得できていない場合等、様々な理由によって生じる。欠損がランダムに発生していない限り、欠損しているという事実が何

    「Kaggleで勝つデータ分析の技術」から見る実用的な機械学習の知見
  • Kaggle Days World Championshipで優勝した話 - ABEJA Tech Blog

    ABEJAでデータサイエンティストをしている服部です。 2022年10月28, 29日にバルセロナにてKaggle Days World Championship Finalというデータサイエンスに関するイベント兼コンペティションが開催され、そこに参加しました。そして幸いなことに私の所属するチームが優勝することができました!! 記事では今回のイベントそのものと、優勝に至るまでのコンペ上での過程や工夫点などについてご紹介しようと思います。 Kaggle Days World Championship Finalとは 1日目(ワークショップやプレゼンテーション等) Opening remarks by LogicAI and Kaggle HP introduction - Key note Kaggle Team - Ask Me Anything Winners team present

    Kaggle Days World Championshipで優勝した話 - ABEJA Tech Blog
  • 【厳選】機械学習の学習におすすめのTwitterアカウント40選 - Qiita

    はじめに 最近、翻訳サービスをリリースしたりしてから、機械学習の勉強をどこでしたらいいのか聞かれることが増えました。 機械学習関連の知識は遷移が激しいので、書籍には限界があります。 ですので、その度に「twitterが一番勉強になる」と答えていました。 が、この回答は聞き手依存な無責任な回答な気もしたので、この際フォローすべき人をまとめておこうと思います。 時折機械学習系でない人も紛れているかもしれません。 とりあえず40アカウントおすすめするだけの記事なので、抜け漏れはあると思いますが、後日補完していこうと思います。 登場するアカウントには何の許可も取っていませんが、独断と偏見でアカウントの特徴をメモしていきます。 (メモとはいえ失礼のないよう書いたつもりです) 0. goto_yuta_ 私です。機械翻訳や、論文のまとめなどの話が多いです。自作の機械翻訳サービスの中身に触れたりします。

    【厳選】機械学習の学習におすすめのTwitterアカウント40選 - Qiita
  • 番外編:VS CodeでKaggleしよう!

    kaggleパッケージをインストールして、VS Codeの統合ターミナルからKaggle APIにkaggleコマンド を使ってアクセスし、ローカル環境でKaggleノートブックを実行してみましょう。

    番外編:VS CodeでKaggleしよう!
  • Kaggle Grandmasterへの軌跡

    Kaggle Grandmasterへの軌跡 はじめに 嗚呼、憧れの。 Kaggle Grandmasterに…… ……というわけで、なってしまったので、Kaggleとの出会いを含めて記念にポエムにしようと思いました。 Kaggleをはじめる前 Topcoder Marathon Matchesという、中長期ヒューリスティクスプログラミングコンテストの分野で、なぜか初参加から2位、1位、1位とよく分からない順位をつけ、最初の2試合だけでRedcoderになったりしつつ、TCO(Top Coder Open)という毎年1回だけ現地開催される大会決勝に大会側に渡航費用を出してもらって計3度決勝に進出しているうちに、当時全盛期だったTopcoderは衰退期を迎えもはや参加の価値が薄れつつあり、すれ違いでコンテストでもっと勝つために再入学した大学院の博士後期課程が原因でTopcoderをはじめとし

    Kaggle Grandmasterへの軌跡
  • Kaggle Grandmasterになるまでの7年間の軌跡 - のんびりしているエンジニアの日記

    皆さんこんにちは お元気でしょうか。冬だというのに、GPUと暖房で半袖装備でも過ごせています。 今年、長きにわたるMaster生活の終演を迎え、ようやくGrandmasterになることができました。 そこで、Grandmasterになるまでの経験をこちらに書き記しておこうと思います。 この記事はKaggle AdventCalendar2021カレンダー2、25日目になります。 qiita.com 著者の背景 Kaggleへの取り組み 1-3年目 4年目 IEEE's Signal Processing Society Avito Demand Prediction Challenge Home Credit Default Risk 5年目あたり 6年目 Global Wheat Detection 7年目 Shopee - Price Match Guarantee Hungry Ge

    Kaggle Grandmasterになるまでの7年間の軌跡 - のんびりしているエンジニアの日記
  • Kaggle Grandmasterへの道 ~ データサイエンティスト“最高峰”を目指す

    2021年度リクルート入社の2人のKaggle Grandmasterにインタビュー。Kaggle Grandmasterを目指すために意識しておくべきポイントや戦略について解説する。これを読んで、データサイエンティストとして“最高峰”の称号を目指そう。 連載目次 この連載では、近年話題のコンペティションプラットフォーム「Kaggle」について、リクルート所属のKaggle Masterの4人が、Kaggleの仕組みや取り組み方、初心者から一歩先にいくためのノウハウについて解説してきました。 連載を振り返ると、第1回では、これからKaggleを始めようと思っている方向けに、Kaggleの仕組みやコンペティション(以下、コンペ)への取り組み方、初心者におすすめのコンテンツについて解説を行いました。 また第2回では、ランクを上げていくために筆者が「実際に何をしていたか」について、実際の事例を交

    Kaggle Grandmasterへの道 ~ データサイエンティスト“最高峰”を目指す
  • 【書籍メモ】『Software Design 2021年11月号』Kaggleで知る機械学習(技術評論社) - u++の備忘録

    Kaggle特集に惹かれ、今月の『Software Design』を購入しました。 gihyo.jp 特集の目次は、以下のとおりです。 第1特集 Kaggleで知る機械学習 前処理から学習モデルの構築,スコアの上げ方までわかる 第1章:Kaggleにエントリーしよう 登録からSubmitまでブラウザ上で完結 第2章:自然言語処理のコンペに挑戦① データの前処理・学習・推論の流れ 第3章:自然言語処理のコンペに挑戦② モデル変更でスコアを底上げする 第4章:くずし字認識のコンペに挑戦① パラメータチューニングの奥深さに触れる 第5章:くずし字認識のコンペに挑戦② さらなるスコアアップのためにKagglerがやっていること まずは、広くソフトウェアエンジニア向けの雑誌にKaggleの特集が掲載されたのが印象的でした。その中で第1章では、Kaggleの概要や機能をスクリーンショットと共に紹介して

    【書籍メモ】『Software Design 2021年11月号』Kaggleで知る機械学習(技術評論社) - u++の備忘録
  • Kaggle Expertになるまで勉強したことを全て書く - Qiita

    はじめに こんにちは。Yuki | Kagglerです! 先日、Shopeeコンペの順位が確定して銀メダルをいただき、晴れてCompetition Expertになることができました。区切りがいいのでここまで取り組んできたことをまとめてみました。 ※ 6/28追記:Amazonのリンクが切れていたので貼り直しました! プログラミング&機械学習を始めて一年、ようやく Kaggle Expertになることができました!! 行列も正規分布も知らず、ターミナルなんて触ったこともない状態からのスタートでしたが、ようやくここまで来ました。 ここまで来れたのは偏にこれまで関わってきた皆様のお陰です。これからも頑張ります!! pic.twitter.com/kMkaFhqhU9 — ユウキ | Kaggler (@Yuki_Kaggler) May 12, 2021 この記事の対象者 Kaggleをやって

    Kaggle Expertになるまで勉強したことを全て書く - Qiita
  • Kaggleはじめの一歩

    連載目次 この連載では、近年話題のコンペティションプラットフォーム「Kaggle」について、リクルート所属のKaggle Master 4人がKaggleの仕組みや取り組み方、初心者から一歩先にいくためのノウハウについて解説を行います。 全3回の連載を予定しており、第1回はこれからKaggleを始めようと思っている方向けに、Kaggleの仕組みや実際にコンペティションに出場した後の取り組み方、初心者におすすめのコンテンツについて解説します。

    Kaggleはじめの一歩
  • Kaggleランカーの9人に聞いた、2020年面白かったコンペ9選と論文9選 | 宙畑

    9名のKagglerの方にアンケートにご協力いただき、2020年に面白かったコンペと論文を教えていただきましたのでその結果を紹介します。 2020年も数多くのデータ解析コンペが開催され、興味深い論文が多く発表されました。 昨年公開した「Kaggle上位ランカーの5人に聞いた、2019年面白かったコンペ12選と論文7選」は現時点で20,000人を超える方にご覧いただき、Kaggleを始めとするデータ解析コンペへの関心が非常に高まっていると感じました。 そして年も9名のKagglerの方にアンケートにご協力いただき、2020年に面白かったコンペと論文を教えていただきましたのでその結果を紹介します。 (1)回答いただいたKaggler9名のご紹介 まずは今回のアンケートに回答いただいたのは以下9名のKagglerの方です。 aryyyyyさま(@aryyyyy221) カレーちゃんさま(@cu

    Kaggleランカーの9人に聞いた、2020年面白かったコンペ9選と論文9選 | 宙畑
  • Kaggleで勝ちっぱなしのデータサイエンティストに話を聞いてみた | AI専門ニュースメディア AINOW

    著者のParul Pandey氏は世界各地に拠点のあるAIスタートアップH2O.aiでデータサイエンス・エバンジェリストを務めており、AINOW翻訳記事『あなたのビジネスにAI戦略を効果的に使用する方法』の著者でもあります。同氏が最近Mediumに投稿した記事では、H2O.aiに所属するKaggleグランドマスターにKaggleの取り組み方に関してインタビューしました。 データサイエンティストのPhilipp Singer氏は、オーストリアのグラーツ工科大学で博士号を取得後、自身の知識を応用する機会を求めてデータサイエンス業界に入りました。同氏がKaggleを始めたのは単なる情報収集がきっかけだったのですが、優秀な成績をおさめたことによってKaggleに夢中になりました。そんな同氏のKaggleの取り組み方、そしてKaggleから学んだことの要点をまとめると、以下のようになります。 Kag

    Kaggleで勝ちっぱなしのデータサイエンティストに話を聞いてみた | AI専門ニュースメディア AINOW
  • Kaggleで10年遊んだGrandMasterの振り返り | ho.lc

    2011年2月16日に Kaggle アカウントを取得して10年が経過した。長い間 Kaggle Ranking 世界 1 位を目指してきたが、この目標やモチベーションが大きく変化してきたと感じたため、一区切りつけるためにもこの10年+αを振り返る。今の目標は対象を問わずアルゴリズムで資産を最大化すること。エンジニアリングを駆使してデータからアルファを探し、システム化して運用する。実利的で定量評価できる最高に楽しいタスクです(記事では触れません)。 競技プログラミングからKaggleを始めるまで¶ Kaggle ができる前は ICPC や ICFP Programming Contest といった競技プログラミング系のコンテストに参加していた。ICPC ではアジア地区会津大会 2007、アジア地区東京大会 2008 に出場したが大敗して悔しくて仕方がなかった。コードゴルフも嗜む程度に遊んで

    Kaggleで10年遊んだGrandMasterの振り返り | ho.lc
  • PyTorch vs. TensorFlow、ディープラーニングフレームワークはどっちを使うべきか問題【2021年】

    連載目次 昨年10月、同タイトルの記事を公開して好評だった。今回は、2021年に向けた、そのアップデート記事となる。 ディープラーニング(深層学習)を実装する場合、専用のライブラリ/フレームワークを用いるのが一般的だ。ディープラーニングが流行してから直近5年ほどの間に、次々と新しいフレームワークが登場した。現在、主要なものを挙げると、 TensorFlow: 2015年登場、Google製。一番有名で、特に産業界で人気 Keras: 2015年登場、作者がGoogle社員。使いやすくて簡単。TensorFlow 2に同梱され標準APIPyTorch: 2016年登場、Facebook製。この中では新興だが、特に研究分野で人気急上昇中 Chainer: 2015年登場、日のPreferred Networks製。2019年12月に開発を終了し、PyTorchへの移行が推奨されている な

    PyTorch vs. TensorFlow、ディープラーニングフレームワークはどっちを使うべきか問題【2021年】
  • 実務(CTR予測)と機械学習コンペの比較�

    Discovery DataScience Meet up (DsDS) #1 での発表資料

    実務(CTR予測)と機械学習コンペの比較�
  • 【Kaggle】鳥コンペ一人反省会 -異常検知編- - Qiita

    先日、9月に終了した鳥コンペについて、反省会を開催させていただきました。 (発表資料は俺人さんのブログにきれいにまとめられています。) 私自身は、チームメイトの@daisukelabのおかげで銀メダルを取りましたが、 全く戦力外で、単なる傍観者にすぎませんでした。(お恥ずかしい) そのため、反省会でも発表する内容がありませんでした。 稿ではコンペ終了後にlate subして、一矢報いたので内容をご報告します。 今回は異常検知にフォーカスした内容になっております。 鳥コンペとは ルールはこちらに書きました。ざっくりいうと 音データから、264種類の鳥の鳴き声を推測する問題 各鳥の音源は9~100個用意されている ただし、264種類以外の鳥、もしくは関係のない音の場合、"nocall"ラベルを付与する nocallは、学習データには含まれないのにも関わらず、テスト時にはラベル付けをしないと

    【Kaggle】鳥コンペ一人反省会 -異常検知編- - Qiita
  • https://github.com/phalanx-hk/kaggle_cv_pipeline/blob/master/kaggle_tips.md

    https://github.com/phalanx-hk/kaggle_cv_pipeline/blob/master/kaggle_tips.md
  • IT未経験からMLエンジニアになるまでの2年半でやったこと - MLaaSS - Machine Learning as a Self-Satisfaction

    はじめに 自身の転職活動にあたり皆さんの転職エントリが非常に参考になったので、私も同じ境遇の方の参考になればと思い、書き残すことにしました。(ただ、当に私と似た境遇の方にはなかなかリーチしづらい気がしていますが・・・) TLDR; 30歳でIT未経験からMLエンジニア転職 約2年半独学で勉強(ほとんどkaggleしてただけ) 無関係に思えた現職での経験もなんだかんだ転職で役に立った 目次 自己紹介 現職について 転職の理由 勉強したこと 転職活動 終わりに 1.自己紹介 かまろという名前でTwitterなりkaggleなりをやっています。kaggleでは画像やNLPといったdeep learning系のコンペを中心に取り組んでおり、2019年の9月に金メダルを獲得しMasterになることができました。 恐らくここが他の転職エントリを書かれている方々と大きく異なる点かと思うのですが、現職

    IT未経験からMLエンジニアになるまでの2年半でやったこと - MLaaSS - Machine Learning as a Self-Satisfaction
  • Kaggle Tweetコンペ振り返り - コンペ概要・BERTによるQ&Aアプローチについて - memo

    はじめに 記事では2020年3月~6月にかけて開催され、約2200チームが参加したKaggleのコンペ Tweet Sentiment Extraction(通称Tweetコンペ)について、振り返りを兼ねてまとめたいと思います。 はじめに コンペ概要 データ データ数について Sentimentについて 元データについて 評価指標 BERTによるQ&Aアプローチ Question Answeringについて コンペにおけるアプローチ QAアプローチの課題 最後に コンペ概要 Tweetと正解ラベルの例 まず初めにコンペのポイントをいくつか挙げます Sentimentラベルの与えられたTweetから、そのSentimentに該当する箇所を抜き出す課題。 アノテーションの問題で正解ラベルにノイズが多く含まれており、noisy labelへの対処もポイントとなった。 BERTやRoBERT

    Kaggle Tweetコンペ振り返り - コンペ概要・BERTによるQ&Aアプローチについて - memo