投稿

9月, 2025の投稿を表示しています

AI依存か実力か――自学プログラマーが直面する「空白恐怖」

イメージ
  「プログラミングを独学して3か月。見た目はそれなりに作れるのに、自分が詐欺師みたいに感じる。」 最近、Djangoを独学して3か月になる開発者 kekda_charger が、技術コミュニティRedditで投げかけた疑問が大きな議論を呼びました。AIの支援を受けながら、ユーザー認証付きのWebアプリやリアルタイム更新機能を持つシステム、さらにはAPI連携まで実装できるようになった彼。しかしAIなしでは、シンプルなログイン機能の構築にさえ2〜3日もかかってしまうといいます。そこから湧き上がる疑念——「自分は本当にプログラミングを学んでいるのか?それとも、AIとの“会話”の仕方を学んでいるだけなのか?」 「高速で成果」から「空白の恐怖」へ:独学開発者の葛藤 冒頭のとおり、kekda_charger のプログラミング学習はわずか3か月前、Djangoの独学から始まりました。AIツールの助けを借りることで学習スピードは“爆速”。データベース駆動アプリの開発からリアルタイム機能の実装まで——本来なら半年以上かかるであろうスキルを、3か月で形にしました。 しかしその華やかな成果の裏には、拭えない不安が潜んでいました。彼の言葉を借りれば「プロジェクトの80〜90%のコードはAI生成」であり、自身の役割は「理解・修正・デバッグ」にとどまっているとのこと。結果として、コードの読み解きや既存機能の拡張には強くなったものの、 ゼロから書く場面 では途端に手が止まり、「白紙恐怖」に陥るといいます。 AIがなければ、簡単なログインシステム構築に2〜3日を要し、エラー解決や文法確認でGoogle検索を繰り返しても、結局失敗に終わることも多い。一方でAIがあれば、同じ作業を2〜3時間で終えられ、コードの行ごとに意味も理解できる。「他人が私の成果物を見て『すごい』と褒めても、私はAIに質問するのが上手いだけ。」そう語る彼は、「これは“なりすまし”ではないか」との思いから眠れぬ夜を過ごすようになり、「AI依存の学習法はこの先自分をダメにするのでは?」という不安に駆られています。 どこまでAIに頼るべきなのか 基礎を従来の方法で補う必要はあるのか 初級開発者を採用する企業は、どの程度のAI依存を許容するのか 他にも「自分はズルをしている」と感じた人はいるのか 彼の悩みは尽きず、Reddit...

Pythonが圧倒的首位!AI時代の年間トッププログラミング言語ランキング発表

イメージ
  AI支援コーディングツールの普及により、多くのプログラマーのコーディング習慣が大きく変化しました。それでは、これがプログラミング言語の使用頻度に影響を与えるのでしょうか?最新のデータによると、影響は確かに存在します。   最近、IEEE Spectrumは年次「トッププログラミング言語」ランキングを発表しました。これは同社が12年連続で発表しているランキングです。結果を見ると、Pythonは依然として揺るぎない王者であることが確認されました。 1.Spectrum 総合ランキング Spectrum総合ランキング(IEEEメンバーの関心度を加味)では、過去10年間でPythonは10回連続で首位を獲得しており、今回もその座を維持しています。   今年最も変動が大きかったのはJavaScriptで、昨年の3位から今年は6位に下降しました。JavaScriptはウェブ開発の“主力言語”として知られていますが、相対的な人気の低下は、AIツールのウェブ開発への浸透と関係があると考えられます。特に「Vibe Coding(雰囲気コーディング)」の流行により、多くの技術者や愛好者がウェブ開発に利用するケースが増えています。 2.Jobsランキング 「Jobs(職業需要)」ランキング(雇用主の実際のニーズに焦点)でも、Pythonは画期的な成果を上げました。初めて1位を獲得し、SQLを2位に押し下げました。それでも、SQLスキルは依然として履歴書上で大きなプラス要素であり、雇用主は依然として重視しています。 過去の動向を振り返ると、ランキングの変化はさらに興味深いものです。最初のランキングでは、Java、C、C++、Pythonはほぼ同点でした。2016年にはCが一時的にJavaを上回り、Pythonは2017年に首位に立ちました。当時、主要言語のスコアは非常に接近していました。   しかし現在では差が広がっています。2024年のSpectrumランキングでは、Pythonのスコアは1で、Javaは0.4986となり、10年前よりも明確な差が見られます。一部の古参言語は徐々に順位を下げています。例えばMatlabは、2014/2015年にはトップ10に入っていましたが、今年は20位に落ち、指数は当時の0.724から0.0957に低下していま...

初心者でも安心!AIとプログラミングを学べる神サイト5選✨

イメージ
  こんにちは!今日はAIやプログラミングを「ゼロから始めたい人」や「キャリアアップしたい人」におすすめの学習サイトをご紹介します。 実際にエンジニアや学習者から人気を集めているプラットフォームをまとめたので、きっとあなたにぴったりの学習スタイルが見つかるはずです💻✨ 1. AI Academy AI Academyは初心者に超おすすめ! AIや機械学習を体系的に学べるオンラインプラットフォームで、転職を目指す人にもぴったり。 オンライン講座や実践的なプロジェクトが充実していて、「AIって難しそう…」という不安を解消してくれる神サービスです。 2. Qiita 日本のエンジニアにとって定番の技術共有コミュニティ。 ここでは開発者が記事やコードを投稿していて、実際に使える知識がぎっしり詰まっています。 エンジニア仲間との交流もできるので、学びながらモチベも維持できるのがポイント👍 3. Signate データサイエンスやAIの実践力を鍛えたいならココ! Kaggleの日本版ともいえるコンテストプラットフォームで、企業や研究者が出題する課題にチャレンジできます。 実際のプロジェクトに触れられるから、スキルアップだけでなく就職や転職にも直結💡 4. Zero to One こちらは中国語圏の学習者向けだけど、日本からも利用可能。 AIとプログラミングをゼロから学べるカリキュラムが豊富で、語学も同時に鍛えたい人には一石二鳥かも!📘✨ グローバルに活躍したい人におすすめ。 5. AtCoder 最後は、日本で超人気のオンライン競技プログラミングサイト。 アルゴリズムやデータ構造を徹底的に鍛えることができ、トップエンジニアも参加しているレベルの高いコンテストが魅力。 「考える力」+「実装力」を同時に鍛えたい人は必見です🔥 🌸まとめ AIやプログラミングを学びたい人にとって、今はオンラインで最高の環境が整っています。 基礎を固めたい人は  AI Academy 、交流したいなら  Qiita 、実践に挑戦するなら  Signate 、 グローバル視点なら  Zero to One 、競技志向なら  AtCoder  がピッタリ✨ 学び方は人それぞれですが、どれも「成長を加速させてくれる最高のツール」で...

里親募集・猫を迎える!OMUSUBIから子猫の情報をスクレイピング

イメージ
  OMUSUBIとは? OMUSUBI(お結び)は、日本の保護犬・保護猫と里親希望者をつなぐ オンラインマッチングプラットフォーム です。動物保護団体が掲載する犬や猫の情報を、里親を希望する人が検索・閲覧でき、サイトを通じて応募・やり取りが可能になります。特徴としては、掲載されているのが信頼性の高い保護団体に限られているため、安心して利用できる点が挙げられます。 スクレイピングツールの概要 ScrapeStorm とは、強い機能を持つ、プログラミングが必要なく、使いやすい人工知能 Webスクレイピングツール です。違う基盤のユーザーに二つの スクレイピング モードを提供し、1-Clickで99%のWebスクレイピングを満たします。 ScrapeStorm により、大量のWebデータを素早く正確的に取得できます。手動で データ抽出 が直面するさまざまな問題を完全に解決し、 情報取得 のコストを削減し、作業効率を向上させます。 抽出されたデータをご覧ください。 1.タスクを新規作成する (1)URLをコピーする 今回はオス × 子猫 × 猫の里親募集情報の一覧ページから子猫の情報を収得し、そのスクレイピング方法を紹介します。まず、URLをコピーしてください。 (2)スマートモードタスクを新規作成する ScrapeStormのホームページ画面にスマートモードタスクを新規作成します。また、持っているタスクをインポートすることもできます。 詳細には下記のチュートリアルをご参照ください。 スマートモードタスクの新規作成方法 2.タスクを構成する (1)自動識別 ScrapeStormは自動的にリスト要素とページボタンを識別できます。偶に誤差があれば、手動で選択してください。下記のチュートリアルも参照してください。 ページ分けの設定方法 (2)詳細ページに行く ソフトウェアの「詳細ページに行く」機能を利用し、避妊去勢、単身者、高齢者、お迎え費用などの情報を抽出します。 (3)フィールドの追加と編集 「フィールドを追加」ボタンをクリックして、画面に必要な要素を選択、データが自動的に抽出されます。また、必要に応じてフィールドの名前の変更または削除、結合できます。 フィールドの設定の詳細には下記のチュートリアルをご参照ください。 抽出されたフィールドを配置する方法 3.タスク...

オフィス通販サイト!カウネットから事務用品の情報をスクレイピング

イメージ
  カウネットとは? コクヨが運営するオフィス通販サイトで、使いやすさを重視したオリジナル商品や、働きやすい環境をサポートする商品が豊富です。ユーザーの声を反映した商品開発も行っているのがポイントです。 スクレイピングツールの概要 ScrapeStorm とは、強い機能を持つ、プログラミングが必要なく、使いやすい人工知能 Webスクレイピングツール です。違う基盤のユーザーに二つの スクレイピング モードを提供し、1-Clickで99%のWebスクレイピングを満たします。 ScrapeStorm により、大量のWebデータを素早く正確的に取得できます。手動で データ抽出 が直面するさまざまな問題を完全に解決し、 情報取得 のコストを削減し、作業効率を向上させます。 抽出されたデータをご覧ください。 1.タスクを新規作成する URLジェネレータ機能を利用し、直接リンクを生成してください。 (1)URLをコピーする 今回は商品レビュー一覧ページから商品レビューを収得し、そのスクレイピング方法を紹介します。まず、第二ページのリンクをコピーしてください。 (2)パラメータを追加する URLジェネレータでURLを入力して、パラメーターを追加画面にページ数を入力し、生成したURLはプレビュー画面でチェックしてください。 URLジェネレータの使い方 2.タスクを構成する (1)自動識別 ScrapeStormは自動的にリスト要素とページボタンを識別できます。直接URLを生成しますから、ページボタンを「スクロールローディング」に設定してください。下記のチュートリアルも参照してください。 ページ分けの設定方法 (2)フィールドの追加と編集 「フィールドを追加」ボタンをクリックして、画面に必要な要素を選択、データが自動的に抽出されます。また、必要に応じてフィールドの名前の変更または削除、結合できます。 フィールドの設定の詳細には下記のチュートリアルをご参照ください。 抽出されたフィールドを配置する方法 3.タスクの設定と起動 (1)起動の設定 必要に応じて、スケジュール、アンチブロック、自動エクスポート、写真のダウンロード、スピードブーストを設定できます。サーバーに負荷しないように、遅延時間を設定してください。5秒以上を推薦します。スクレイピングタスクを配置する方法については、...