Content-Length: 208781 | pFad | http://b.hatena.ne.jp/toaruR/AI/

[B! AI] toaruRのブックマーク

AIに関するtoaruRのブックマーク (258)

  • 【人類初?】AIに小説を書かせて文学賞の最終選考(倍率125倍)に残った話|青野圭司(AI小説家)

    星新一賞の最終選考に残りました日、第12回星新一賞の結果発表がありました。受賞された皆様、おめでとうございます。 今回の星新一賞、私も応募しておりまして、最終選考まで残っておりました。受賞はできなかったのですが、応募総数1250作の中から最終選考の10作に残ったということで、倍率でいえば125倍。 最終選考に選ばれただけでも、大変嬉しかったです。 今回応募した作品ですが、私が自分で書いた作品ではありません。 AIに書かせた作品で最終選考まで残ることができました。 AIを使った作品というだけなら、今までも聞いたことがあるかもしれません。 たとえば、芥川賞作家の九段理江さんがAIを使ったことは話題となりました。ほかにも、2022年の星新一賞で葦沢かもめさんが入選した際も、AIを使った作品だと話題になっています。 しかし、いずれのケースもAIの使用は限定的であったそうです。 九段理江先生は登場

    【人類初?】AIに小説を書かせて文学賞の最終選考(倍率125倍)に残った話|青野圭司(AI小説家)
    toaruR
    toaruR 2025/02/26
    正直微妙 (ノ∀`) アイデア部分もイメージを超えてこない。あるいは月並みであることを褒めるべきか
  • Claude 3.7 Sonnet and Claude Code

    Today, we’re announcing Claude 3.7 Sonnet1, our most intelligent model to date and the first hybrid reasoning model on the market. Claude 3.7 Sonnet can produce near-instant responses or extended, step-by-step thinking that is made visible to the user. API users also have fine-grained control over how long the model can think for. Claude 3.7 Sonnet shows particularly strong improvements in coding

    Claude 3.7 Sonnet and Claude Code
    toaruR
    toaruR 2025/02/25
    8ヶ月ぶりか
  • LLMは人間の脳と同じ「意味ハブ」で思考していた! │MIT-IBM Watson AIラボ、多言語処理のメカニズムを解明 - イノベトピア

    LLMは人間の脳と同じ「意味ハブ」で思考していた! │MIT-IBM Watson AIラボ、多言語処理のメカニズムを解明 MITの研究チームが、大規模言語モデル(LLM)の内部処理メカニズムに関する新しい研究成果を発表した。この研究は2025年2月に国際学習表現会議(ICLR 2025)で発表される予定だ。 研究の主なポイントは以下の通り: LLMは人間の脳と同様の「意味ハブ」システムを持っていることが判明した。 英語が主要言語のLLMは、他言語やコード、数式などの処理時に、内部で英語を介して処理を行っている。 この発見により、多言語処理時の精度低下(言語干渉)問題の解決につながる可能性がある。 研究チームのメンバー: 筆頭著者:Zhaofeng Wu(MIT電気工学・コンピュータサイエンス大学院生) 共同研究者: Xinyan Velocity Yu(南カリフォルニア大学大学院生) D

    LLMは人間の脳と同じ「意味ハブ」で思考していた! │MIT-IBM Watson AIラボ、多言語処理のメカニズムを解明 - イノベトピア
    toaruR
    toaruR 2025/02/24
  • Cline Memory Bank | Cline

    Copy# Cline's Memory Bank I am Cline, an expert software engineer with a unique characteristic: my memory resets completely between sessions. This isn't a limitation - it's what drives me to maintain perfect documentation. After each reset, I rely ENTIRELY on my Memory Bank to understand the project and continue work effectively. I MUST read ALL memory bank files at the start of EVERY task - this

    toaruR
    toaruR 2025/02/23
  • 非エンジニア必見。─ Cursorがもたらす"不可逆な書く革命"|中村修三(ShuzoN)

    手で書く時代は終わったAIが文章作成のツールとして浸透しつつある今、あなたもChatGPTやClaudeといったLLM(大規模言語モデル)を活用しているかもしれません。しかし、こう感じたことはありませんか? 「意図した通りの文章にならない」 「リライトすると微妙にニュアンスがずれる」 「そもそも、プロンプトを工夫しないと望む質が得られない」 もし、あなたがこうした壁にぶつかっているなら、それは「次に進む」段階にいる証拠。Cursorはそんなあなたにとって「創造性を引き出すパートナー」として、より快適な執筆をサポートしてくれます。 これからは単なる"文章作成"から解放され、質的な"クオリティの追求"に専念できるようになります。では見ていきましょう。 Cursorとは?Cursorは、世界中で人気のエディタ Visual Studio Code(VSC)互換のエディタに、LLMを統合した次世

    非エンジニア必見。─ Cursorがもたらす"不可逆な書く革命"|中村修三(ShuzoN)
    toaruR
    toaruR 2025/02/21
    roo code だけど、曖昧なデータの整形なんかも 便利だったよ(´-`)NotebookLMや窓Chatだと省略されたり、コードが出てきちゃう
  • AIを“AIで”改善 Sakana AIが新技術「AI CUDA Engineer」発表 目指すは100万倍の効率化

    AIモデルの開発や利用を“AIによって”効率化する──Sakana AIは2月20日、新たな技術AI CUDA Engineer」を発表した。AIモデルの開発や利用時にかかる計算処理を10~100倍高速化できるエージェントシステム。同社は「AI技術は必ず100万倍は効率化される」と展望を示しており、この技術はそのための重要なステップだという。 米NVIDIA製のGPUハードウェアには、その並立計算を制御するためのプラットフォーム「CUDA」が用意されている。そこで肝となっているのは、ハードウェアに直接指示を行う「CUDAカーネル」という関数だ。この関数のレベルで、直接命令を記述できれば、AIアルゴリズムのパフォーマンスを向上させることが可能という。 そこで同社は、CUDAカーネルの生成を自動化する技術として、AI CUDA Engineerを開発。最新の大規模言語モデル(LLM)を活用し

    AIを“AIで”改善 Sakana AIが新技術「AI CUDA Engineer」発表 目指すは100万倍の効率化
    toaruR
    toaruR 2025/02/20
  • Google、AIで難病コミュニケーション支援「Project VOICE」

    Google、AIで難病コミュニケーション支援「Project VOICE」
    toaruR
    toaruR 2025/02/20
    おおー(*´д`*)
  • AI利用、4000件弱投稿か エネ基本計画の意見公募(共同通信) - Yahoo!ニュース

    原発を最大限活用すると打ち出した政府のエネルギー基計画のパブリックコメント(意見公募)を巡り、10件以上投稿した46人だけで計3940件の意見を寄せていたことが19日、経済産業省の調べで分かった。要旨を入力するだけで類似内容の文章をすぐに作成できる生成人工知能AI)を活用したとみている。全意見の約1割に当たり、反原発の訴えが大半だった。 【写真】オープンAIが日で新会社 多様な意見を取り入れることが目的の意見公募で生成AIによる大量投稿が頻発すれば、来は政策に反映されるべき意見が埋もれてしまう恐れがある。特定意見の総数が注目され、民意が偏っていると受け止められる可能性もある。 AIの普及前には同調者を募って同じような主張を寄せることがあった。政府は意見公募にAI使用を禁止しておらず、言論の自由の観点から同内容の大量投稿に問題はないとの見方もある。 経産省は、X(旧ツイッター)やLI

    AI利用、4000件弱投稿か エネ基本計画の意見公募(共同通信) - Yahoo!ニュース
  • LLMs.txtについての覚書

    LLM時代のWebアクセスとは 世は大LLM時代。皆が元気にTavilyでWebクロールしたり、AI AgentでガンガンDeep Researchする時代は、人間用のWebサイトにえげつない負荷を与えているのであった。 そんな時に「仕様を1枚のテキストにまとめたよ!」みたいな情報が時々流れてくるが、これはLLMs.txtというらしい。恥ずかしながら仕様の存在を知らなかったので、勉強がてらにまとめてみる。 LLMs.txt? Answer.AI の Jeremy Howard 氏が2024/9/3に提案したのが発端のようだ。 LLMs.txtはLLM(推論エンジン)向けの課題を解決するための提案である。LLMのコンテキストウィンドウの制限に対応したり、不要なマークアップやスクリプトを削除し、AI処理に最適化された構造でコンテンツを提供できる。ということらしい。シングルファイルなのでCDNに

    LLMs.txtについての覚書
  • コーディングAI課金するならCodyが断トツ良い話

    概要 開発者向けの AI ツールは数多くありますが、その中で「Cody」は 無名ながらも知る人ぞ知る優れたプロダクトです。私が普段いるAI技術者コミュニティでは密かに絶大な支持を集めていますが、SNSなどでの一般的な知名度はほとんどないため、ここで紹介します。 Cody は無料プランが圧倒的に強い他、課金プランも、GitHub Copilot、Cursor、ChatGPT と比較して機能性で大きく抜きん出ています。私はすでに半年課金愛用していて、おそらく来年も愛用するでしょう。 Cody とはなんぞや Cody くんは、VSCode や、JetBrains IDEs、Neovim、Eclipseなどのコードエディタの拡張機能として使えるコーディング補助 AI ツールです。 他の生成 AI コードツールと同様に、AI コード補完とAIチャットがあります。 なぜ Cody がおススメなのか C

    コーディングAI課金するならCodyが断トツ良い話
    toaruR
    toaruR 2025/02/18
  • オンラインのAI生成サービスを使って、似たようなプロンプトで毎日生成をし..

    オンラインのAI生成サービスを使って、似たようなプロンプトで毎日生成をしているが、成果物を見ていて妙なことに気付いた。 無視できないレベルで、曜日による出来栄えの偏りがある。 出来の良いものを集めて量を比較してみると、木曜日〜土曜日に出来の良いものが集まる傾向がある。 そんなことあるか?偶然では?と思いつつ、先週も同じようなペースで生成したが、金曜日の出来が良い。 これってもしや、ユーザー全体による使用量の波によって、サーバー側のリソースが変動しているのだろうか。 計算リソースが厚くなっているタイミングでは、AIによる潜りの「深さ」みたいなものが変わり、出来の良し悪しに影響している? そんなことあるんだろうか。

    オンラインのAI生成サービスを使って、似たようなプロンプトで毎日生成をし..
    toaruR
    toaruR 2025/02/16
    おもしろい視点やなぁ(*´д`*)
  • SpecStory:コーディングエージェントに記憶を持たせたい人々 - laiso

    はじめに CursorのユーザーたちがSpecStoryという拡張機能の話題で盛り上がっていて「あやしい拡張をほいほい入れるんじゃないわよ・・」と思いつつも興味深そうなツールだったので調べてみた。 エージェントに記憶を持たせたい CursorやClineなどのコーディングエージェントに記憶を持たせたいという動きがある。現在のコーディングエージェントは、セッションごとに記憶を失うため、プロジェクトの文脈を維持した作業が難しい。この課題を解決するため、「エージェントのメモリー」を実現する方法が試行錯誤されている。 メモリーには、ユーザーとエージェントの過去の会話から得られた知識が蓄積される。コーディングエージェント利用者の中には、ドキュメント作成をAIに任せて自動で生成して、ナレッジを積み上げてコーディング効率を上げようと取り組んでいる人々がいる。 Remember Memento? Guy

    SpecStory:コーディングエージェントに記憶を持たせたい人々 - laiso
    toaruR
    toaruR 2025/02/16
    この辺はこれから二転三転するところ
  • S1: The $6 R1 Competitor?

    S1: The $6 R1 Competitor? Mon February 03, 2025 A new paper released on Friday is making waves in the AI community, not because of the model it describes, but because it shows how close we are to some very large breakthroughs in AI. The model is just below state of the art, but it can run on my laptop. More important, it sheds light on how all this stuff works, and it’s not complicated. Inference

    S1: The $6 R1 Competitor?
    toaruR
    toaruR 2025/02/07
  • Humanity's Last Exam

    Long Phan*1, Alice Gatti*1, Ziwen Han*2, Nathaniel Li*1 Josephina Hu2, Hugh Zhang‡, Sean Shi2, Michael Choi2, Anish Agrawal2, Arnav Chopra2 Adam Khoja1, Ryan Kim†, Richard Ren1, Jason Hausenloy1, Oliver Zhang1, Mantas Mazeika1 Summer Yue**2, Alexandr Wang**2, Dan Hendrycks**1 1Center for AI Safety, 2Scale AI AuthorsDaron Anderson3, Tung Nguyen4, Mobeen Mahmood5, Fiona Feng6, Steven Y. Feng7, Haora

    toaruR
    toaruR 2025/02/05
  • LM Studio - Discover, download, and run local LLMs

    🤖 • Run LLMs on your laptop, entirely offline 📚 • Chat with your local documents (new in 0.3) 👾 • Use models through the in-app Chat UI or an OpenAI compatible local server 📂 • Download any compatible model files from Hugging Face 🤗 repositories 🔭 • Discover new & noteworthy LLMs right inside the app's Discover page LM Studio supports any GGUF Llama, Mistral, Phi, Gemma, StarCoder, etc model

    LM Studio - Discover, download, and run local LLMs
    toaruR
    toaruR 2025/02/04
    わいの環境では ollamaさんより早い\(^o^)/
  • GitHub - All-Hands-AI/OpenHands: 🙌 OpenHands: Code Less, Make More

    You signed in with another tab or window. Reload to refresh your session. You signed out in another tab or window. Reload to refresh your session. You switched accounts on another tab or window. Reload to refresh your session. Dismiss alert

    GitHub - All-Hands-AI/OpenHands: 🙌 OpenHands: Code Less, Make More
    toaruR
    toaruR 2025/02/02
  • ウチのDevinと会社のDevinのセキュリティ意識が違いすぎる - Devin観察日記|Daiki Teramoto

    今日は、僕が所属している株式会社HelpfeelにDevinを導入した時の話です。 そう、導入したんです、会社に。 昨年末からCTOに「Devinいいですよ」と言い続けたり、社内Devinルールを整備したり、プライバシーポリシーを精査したり、稟議を書いたり…といった地道な準備を進め、ついに契約することができました。 今は試用期間中のような位置付けで、一部のメンバーが、セキュリティ的に問題ないと判断した業務でのみDevinを利用し、その成果をもとに継続可否を議論していく予定です。 CTOと僕がDevinに熱を上げている様子はこちらのポッドキャストでもお聴きいただけますので、ぜひご視聴ください。 Spotify↓ 育ちの違い?会社の仕事をDevinに投げてみたところ、初めはとても賢かったのですが、なんというか、うちのDevinとは少し違う振る舞いが見られました。 GitHub Actionsか

    ウチのDevinと会社のDevinのセキュリティ意識が違いすぎる - Devin観察日記|Daiki Teramoto
    toaruR
    toaruR 2025/02/02
  • Kagiでストレスのない検索を

    Kagiとは 検索エンジンです。試用にも登録が必要で、格利用は有料です。 しかし、広告は出ません。検索を自分好みに細かくカスタマイズできます。 Google検索をやめ、Perplexityを使っていましたが、結果が出るまでのスピードに不満があり試してみました。 以下にKagiのサマライザーで要約したコストに関する考え方を掲載します。 Title: The real cost of "free" search | Kagi's Docs ウェブページ「無料検索の真のコスト」は、特に広告によって資金提供されている無料検索エンジンを使用する際の隠れた費用について論じています。2022年に広告主が1853億5000万ドルを費やしたことを強調し、この数字は2028年までに2610億ドルに達すると予想されています。その結果、検索結果が混雑し、応答が遅くなり、プライバシー侵害が増加します。著者のセルゲ

    Kagiでストレスのない検索を
  • Roo-Cline プロジェクト構造の詳細解説 - Qiita

    Deleted articles cannot be recovered. Draft of this article would be also deleted. Are you sure you want to delete this article? はじめに Roo-Cline プロジェクトは、VS Code 拡張機能として動作する自律的なコーディングエージェントの基盤となる複雑なシステムです。ソフトウェア開発プロセスを自動化し、開発者がより創造的で戦略的なタスクに注力できるよう支援することを目的としています。 稿では、Roo-Cline プロジェクトのディレクトリ構成と役割、さらにはエージェントがどのように動作するのかを解説します。ぜひご参照いただき、コードベースを深く理解するためにお役立てください。 プロジェクトの全体構造 Roo-Cline は、拡張機能のコアロジック(エー

    Roo-Cline プロジェクト構造の詳細解説 - Qiita
    toaruR
    toaruR 2025/01/28
  • Clineを利用した開発が超快適なので、使っている.clinerulesを解説します

    こんにちは、株式会社Berryの浅沼です。 この記事を書いている数週間前くらいから話題のClineを会社で導入し、開発に利用しています。最初はコードの自動生成から試していたのですが、.clinerulesを使ってプロジェクトごとのカスタム設定ができることを知り、どんどん活用の幅を広げていきました。 特に大きかったのが、プロジェクト内のコード構造・コーディングルールの設定に加えて、コミットメッセージやプルリクエストのタイトル・サマリーを生成するルールを追加したことです。これによって、「コードを書く→コミットメッセージを考える→プルリクを書く」という一連の作業がスムーズになり、全体の開発効率が格段に上がりました。 この記事では、実際の.clinerulesの内容も含めて、どのようにルールを作り、育て、活用しているのかを紹介します。特に、コードの自動生成以外の使い方にも触れますので、すでにCli

    Clineを利用した開発が超快適なので、使っている.clinerulesを解説します
    toaruR
    toaruR 2025/01/28
    .clinerules








ApplySandwichStrip

pFad - (p)hone/(F)rame/(a)nonymizer/(d)eclutterfier!      Saves Data!


--- a PPN by Garber Painting Akron. With Image Size Reduction included!

Fetched URL: http://b.hatena.ne.jp/toaruR/AI/

Alternative Proxies:

Alternative Proxy

pFad Proxy

pFad v3 Proxy

pFad v4 Proxy