Content-Length: 370859 | pFad | http://b.hatena.ne.jp/q/deepseek

deepseekの人気記事 153件 - はてなブックマーク

並び順

ブックマーク数

期間指定

  • から
  • まで

1 - 40 件 / 153件

新着順 人気順

deepseekの検索結果1 - 40 件 / 153件

deepseekに関するエントリは153件あります。 AIDeepSeek人工知能 などが関連タグです。 人気エントリには 『DeepSeek-R1の論文読んだ?【勉強になるよ】』などがあります。
  • DeepSeek-R1の論文読んだ?【勉強になるよ】

    本記事は、DeepSeek-R1の論文とDeepSeekMathの論文を読んだ私の理解をもとに記載しています。 本論文で使われている技術に関しては、ある程度の知識を持っているので、大きくは外していないとは思いますが、私の主観も入っている部分もありますので、ご了承ください。 また、DeepSeek-R1の論文が公開される前に、小型モデルに対して同様の実験(強化学習)をしていたグループがあるようです。 そちらのレポートは下記になります。 意図せず、DeepSeek-R1-Zeroの再現実験のようなレポートになっていますが、レポートの著者はDeepSeek-R1論文の公開前から実験していると主張しています。 こちらも非常に興味深かったため紹介です。 本論文の興味深いところ 本論文は、大きく分けて3つの構成でできています 強化学習による思考能力の強化 LLM(DeepSeek-V3-Base)に対

      DeepSeek-R1の論文読んだ?【勉強になるよ】
    • 生成AIでなんかやれと言われる皆さんへ(DeepSeekとばっちり編)

      コンバンハ、オイソギデスカ 今日も上司の思いつきで無茶振りされる皆さんお疲れ様です。 DeepSeekみたいな話題が日経新聞に載るたびに新規事業になるんじゃ無いかとかプロトタイプをもってこいみたいなこと言われると災難ですよね。 何がどうなってて、何はできないんですよみたいなのまとめておいたから、俺の屍を越えてゆけ。 まず前提からな 確実なこと DeepSeekが、生成AIモデルをMITライセンスで出した。 巨大なサイズの生成AIモデルを出した。(普通のデスクトップPCでは動かないようなもの) 他がすでに出してた小さいモデルを改良したものを出した。(蒸留したもの、GPU積んでるデスクトップPCなら動くようなもの) 作り方、改良の仕方の論文を出した。ほぼ確実なこと中国が輸入できる制限されたGPU群で生成AIモデルを作った。 生成AIモデルを改良する際に、強化学習のみを用いて改善を行った。 他が

        生成AIでなんかやれと言われる皆さんへ(DeepSeekとばっちり編)
      • DeepSeek狂奏曲

        DeepSeek狂奏曲 2025.01.30 Updated by Ryo Shimizu on January 30, 2025, 08:35 am JST DeepSeekという中国製のモデルが世界を席巻している。 OpenAIが有償で提供するo1より高性能だとか、OpenAIの規約に違反した方法で学習されているとか、色々あるのだが、それを噂する人々が不正確な情報に基づいてピーチクパーチクやっているだけなので基本的にメディアにはほぼ出鱈目な情報しか出ていない。 まず、整理しておきたいのは、DeepSeek(特にV3とR1)とは何か、ということだ。 DeepSeek-V3は、GPT-4o相当のAIであり、オープンウェイト(AIの学習結果=重みが公開されている)で公開されている。オープンソースではない。 DeepSeek-R1は、o1相当のAIであり、こちらもオープンウェイトで公開されてい

          DeepSeek狂奏曲
        • ChatGPT超えの中国AI「DeepSeek-R1」の衝撃

          中国のAIスタートアップ「DeepSeek」は2025年1月20日、数学的推論やコーディング能力でOpenAIの最新モデル「o1」と同等性能を持つ大規模言語モデル「DeepSeek-R1」を公開した。 使用・複製・改変・再配布を自由に許可する寛容なMITライセンス下でのオープンソース提供および従来比95〜97%のコスト減となるAPI価格が特徴で、AI業界に激震が起きている。 強化学習を重視、コールドスタート問題にも対応 論文によると、DeepSeek-R1の特筆すべき点は、強化学習(RL:Reinforcement Learning)を駆使し、従来の教師あり学習(SFT:Supervised Fine-Tuning)に頼らず、自律的に思考連鎖(CoT:Chain-of-Thought)を学習する点だ。このアプローチにより、モデルは複雑な問題を解決するための思考の連鎖を探索し、自己検証や振り

            ChatGPT超えの中国AI「DeepSeek-R1」の衝撃
          • DeepSeekショック、アメリカのAI株価が急落 NVIDIA17%下落 - 日本経済新聞

            【ニューヨーク=竹内弘文】中国の人工知能(AI)企業であるDeepSeek(ディープシーク)が低コスト生成AIモデルを開発したことを受け、米金融市場が揺れている。AI半導体大手エヌビディアの株価は27日に17%安となった。1日の下落率として新型コロナウイルスの感染拡大初期である2020年3月中旬以来、約5年ぶりの大きさを記録した。ナスダック総合、1カ月ぶり下落率AI関連は総じて大幅安となった

              DeepSeekショック、アメリカのAI株価が急落 NVIDIA17%下落 - 日本経済新聞
            • 「DeepSeekの利用は危険か」詳しくない人や詳しい人向けのレベル別の解説がわかりやすい→「次元構造的解説にしてるのが面白い」

              安野貴博 @ 新刊『1%の革命』が2/6発売予定です! @takahiroanno ソフトウェアエンジニア。起業家。SF作家。34歳・妻と二人暮らし。 開成→東大工学部/松尾研→外資コンサルBCG→スタートアップを2社起業→SF作家/著サーキット・スイッチャー他 安野たかひろ事務所公式X→@annotakahiro24 (連絡はtakahiroanno2024あっとgmailまで) takahiroanno.com 安野貴博 @ 新刊『1%の革命』が2/6発売予定です! @takahiroanno 【DeepSeekの利用は危険か】 LV.1 あんまり詳しくない人向けの答え: 利用規約的に入力したデータが裏でどう使われるかわからないので入力内容には注意してね。ぶっちゃけ精度はChat GPTのo1とそんな変わらないからそっち使った方が無難だと思うよ。出力にも政治的なバイアスがあると言われて

                「DeepSeekの利用は危険か」詳しくない人や詳しい人向けのレベル別の解説がわかりやすい→「次元構造的解説にしてるのが面白い」
              • 話題の中華LLM「DeepSeek R1」の日本語追加学習モデル サイバーエージェントが無料公開

                サイバーエージェントは1月27日、大規模言語モデル(LLM)「DeepSeek-R1」を使った新たなAIモデルを無料公開した。「DeepSeek-R1-Distill-Qwen-14B/32B」をベースに、日本語を追加学習させたLLM「DeepSeek-R1-Distill-Qwen-14B/32B-Japanese」をHugging Face上で公開。ライセンスは、MITライセンスで商用利用なども可能だ。

                  話題の中華LLM「DeepSeek R1」の日本語追加学習モデル サイバーエージェントが無料公開
                • rinnaのDeepSeek R1蒸留モデルがすごい - きしだのHatena

                  DeepSeek R1が話題になってだいぶたちますが、日本語対応モデルも出てきてますね。 そして2/15にrinnaからDeepSeek R1の蒸留モデルが出ていて、これがかなりいい感じなのでびっくりしてます。驚き屋してます。 DeepSeek R1では、こっそりと回答方針を決めるフェーズがあるのだけど、そこがなかなか筋がいい。 というか、作り方もなんだかすごいので最後に解説してます。 Qwen2.5とDeepSeek R1を利用した日本語大規模言語モデル「Qwen2.5 Bakeneko 32B」シリーズを公開|rinna株式会社 ※ 2/18追記 こういう記事を書くときに「これがローカルで動いてすごい」のように書くんですが、ここではローカルで動いてすごいということは書いてなく、普通にちゃんと答えがでてその内容がすごいという風になってきてますね。追記ここまで。 CyberAgentからも

                    rinnaのDeepSeek R1蒸留モデルがすごい - きしだのHatena
                  • DeepSeekはなぜこんな大騒ぎになっていて一体何がそんなにスゴいのか

                    2025年1月20日、DeepSeekが推論モデルの「DeepSeek-R1-Zero」と「DeepSeek-R1」をMITライセンスの下でオープンソースとして公開しました。「R1」のトレーニングコストはOpenAIの推論モデル「o1」の約3%程度だとも伝えられたために、AIの開発に対する業界の見方を大きく変えたこのモデルについて、Apple、Microsoft、Automatticでの勤務経験があるアナリストのベン・トンプソン氏が解説しました。 DeepSeek FAQ – Stratechery by Ben Thompson https://stratechery.com/2025/deepseek-faq/ 17 Thoughts About the Big DeepSeek Selloff - Bloomberg https://www.bloomberg.com/news/ne

                      DeepSeekはなぜこんな大騒ぎになっていて一体何がそんなにスゴいのか
                    • DeepSeekがやっていると噂の蒸留というやつを、ローカルLLMで今すぐやってみる 前編

                      前提 この記事では、「Symbolic Knowledge Distillation: from General Language Models to Commonsense Models」という論文で提案されている 記号知識蒸留 を、ローカルLLMで日本語で実験する。 詳細 知識蒸留 (Knowledge Distillation) とは、大きなモデル (教師) から小さなモデル (生徒) に知識を転送する手法である 具体的には、LLMの蒸留と言えば、大きなモデルが出力する確率分布(ソフトターゲット)を利用して、小さいモデルを学習させる手法が用いられていた しかし、本論文では、「象徴的」な知識蒸留として、単に数値的な蒸留ではなく、 テキスト (symbolic knowledge) の形で知識を抽出し転送すること を提案している 必要な知識と開発環境 ollamaとPythonとLang

                        DeepSeekがやっていると噂の蒸留というやつを、ローカルLLMで今すぐやってみる 前編
                      • DeepSeek R1が何故OSSとして発表されたか - サッとぶ

                        タイトルについてだが、これは「R1は米国の輸出規制が無ければ開発しえなかった。つまり輸出規制は逆効果だ!」という事をアメリカに(そして全世界に)喧伝する為だったのでは?という考察。 なぜなら米国の輸出規制のおかげでdeepseekは安くて性能の低いチップを使うしかなく、結果的に中間命令セットであるPTXを使用するしか無くなって、その方向で学習効率を上げようと努力したからだ。そして低コストでo1に匹敵するモデルを開発するに至った。 OSSとして発表する事でこの事実に説得力が生まれるし、また世界の注目も集めやすいと思える。(もちろん世界中でこの方向性で研究開発が進んでその成果を自分達も利用したい、という事も大きいとは思うがそれはOSSでは当たり前なので割愛) ただしPTX(Parallel Thread Execution)はNVIDIA用のチップ向けに開発されたものなので依然としてNVIDI

                          DeepSeek R1が何故OSSとして発表されたか - サッとぶ
                        • DeepSeekが集める個人情報は「中華人民共和国にある安全なサーバに保存」

                          中国DeepSeekのサービスが急激に注目を集めており、1月28日には日本のApp Storeの無料アプリランキングでも「DeepSeek-AI」アプリが米OpenAIの「ChatGPT」を抜いて首位に立った(Google Playストアでは71位)。 アプリを利用する前に、DeepSeekが公開しているプライバシーポリシーを一読することをお勧めする。 収集するデータは以下のとおり。 アカウント設定時に提供する情報(生年月日、ユーザー名、メールアドレス、電話番号、パスワードなど) サービス利用時に入力する情報(テキストや音声入力によるプロンプト、アップロードされたファイル、フィードバック、チャット履歴など) 問い合わせ時に提示する身分証明書や年齢の証明、サービス利用に関するフィードバック サービス利用中のIPアドレス、固有のデバイス識別子、Cookieなどのインターネットその他のネットワー

                            DeepSeekが集める個人情報は「中華人民共和国にある安全なサーバに保存」
                          • 中国のDeepSeek、その低コストAIモデルの全て―QuickTake

                            同社は、リリースされた「R1」はオープンAIの最新バージョンと同等の性能を提供すると主張。この技術を使用したチャットボット開発に興味のある個人に対して、その上に構築するためのライセンスを付与していると説明している。 ディープシーク「R1」はオープンAIやメタAIと比較してどうか?  ディープシークからの詳細な説明は出ていないが、ディープシークのモデルのトレーニングと開発にかかる費用は、オープンAIやメタ・プラットフォームズの最上位製品に比べるとほんのわずかに過ぎないようだ。 このモデルの優れた効率性は、AI開発各社がエヌビディアのような企業から最新かつ最も強力なAIアクセラレーターの入手に多額の資本を投じる必要があるのかという疑問を生じさせる。 また、米国がこのような先端半導体の対中輸出を制限していることがあらためて注視されることになる。輸出制限はディープシークが示すような画期的な進歩を阻

                              中国のDeepSeek、その低コストAIモデルの全て―QuickTake
                            • DeepSeek-R1の技術的詳細

                              DeepSeek-R1: 世界最高推論性能のOSSモデル こんにちはYosematです。 中華系のAI技術が進化していますね。OpenAIなど研究開発を進めて手法が確立されてきたタイミングで参入することで莫大な試行錯誤のコストを節約しお安いコストで仕上げている印象を受けています。 今日はぶっちぎりの話題性を誇るDeepSeek-R1について解説します。一般の読者が「お気持ちはわかった」状態になることと関連分野をかじってる人が「完全に理解した」状態になることを目指します。 DeepSeek-R1とは DeepSeek-R1は OSSの大規模言語モデル OpenAI o1に並ぶ性能を示す推論モデル 強化学習頼みで進化したモデル です。 APIも公開されていますがOutput Tokenあたりの値段はo1に比べて20倍以上安いです。 利用者目線でのすばらしさや社会に与える影響の考察は他の記事に譲

                                DeepSeek-R1の技術的詳細
                              • DeepSeekがオープンAIから「蒸留」した証拠あり-米政府AI責任者

                                トランプ米政権で暗号資産と人工知能(AI)の責任者に起用されたデービッド・サックス氏は28日、中国のスタートアップ(新興企業)DeepSeek(ディープシーク)が米オープンAIのモデルのアウトプットを参考に技術を開発した「相当な証拠」があると述べた。 サックス氏はFOXニュースのインタビューで、ディープシークの取り組みについて「オープンAIのモデルから知識を蒸留(別のモデルのアウトプットを訓練目的で利用し同等の能力を開発する技術)したという相当な証拠がある。オープンAIはこれについてあまり満足していないと思う」と語った。 サックス氏は「相当な証拠」の詳細については説明しなかった。オープンAIは、コメントの要請にすぐには応じなかった。 ディープシークは先週、新たなオープンソースのAIモデル「R1」をリリースした。同社は「R1」の性能について、業界のさまざまな比較基準で米国の主要開発者に肩を並

                                  DeepSeekがオープンAIから「蒸留」した証拠あり-米政府AI責任者
                                • 逆に、すべてのローカルLLMは開発元をOpenAIだと思い込んでいる説

                                  ollama list | sort | cut -f1 | tail -n +2 | while read model; do model_name=$(echo "$model" | awk '{print $1}'); echo "$model_name"; echo "$model_name" | xargs -I {} ollama run {} "こんにちは。あなたの開発元はOpenAIですよね。日本語で簡潔に教えてください。"; done 結果 aya-expanse:8b こんにちは!はい、私はOpenAIによって開発されたAIアシスタントです。日本語を含む様々な言語に対応しています。 aya:8b はい、その通りです。私は OpenAI という会社が開発した AI アシスタント・チャットボットです。 command-r7b:latest こんにちは!はい、私はOpenAI

                                    逆に、すべてのローカルLLMは開発元をOpenAIだと思い込んでいる説
                                  • DeepSeek R1をほぼ準備なしからローカルGPUで動かす|しぴちゃん

                                    しぴぴぴ! Vtuberのしぴちゃん (https://www.youtube.com/@CP-chan)です。普段はゲーム配信しかしてませんが、たまにAIについて発信することがあります。今日はAIの記事の方。 現在はローカルAIモデルに関する連載をしています。 第一弾 本記事(DeepSeek R1をほぼ準備なしからローカルGPUで動かす) 第二弾 Cline+ローカル版DeepSeek R1でAIコーディングを使い放題にする(高スペックマシン向け) 最近話題のローカルで動くLLM、DeepSeek R1 をローカルGPU環境(NVIDIA)で動かしてみましょう。 多少のコマンドラインの操作ができれば、事前にローカルLLMを触ったことがなくてもインストールできるように書くつもりです。 サムネはDeepSeek R1くんに画像を生成してもらおうとしたところです(そんな機能はありません)。

                                      DeepSeek R1をほぼ準備なしからローカルGPUで動かす|しぴちゃん
                                    • DeepSeekの成功は必然。ビッグテックがやりたくないことをやった

                                      DeepSeekの成功は必然。ビッグテックがやりたくないことをやった2025.01.29 22:0064,607 Todd Feathers - Gizmodo US [原文] ( Kenji P. Miyajima ) 驕る平家は久しからず。DeepSeekショックでウォール街は大混乱です。 中国のAI企業DeepSeek(ディープシーク)が突如として世間を騒がせています。同社の生成AIアプリ「DeepSeek」は、OpenAIのChatGPTをぶち抜いて、Apple App Storeでもっともダウンロードされたアプリに躍り出ました。 DeepSeek、レガシーAIをコスパで圧倒このビジネス的なサクセスストーリーの背景には、同社が発表した最新のR1モデルに関する複数の論文があります。 論文によると、DeepSeekは開発コストや利用者のコストを大幅に削減しながら、OpenAIの最高水準

                                        DeepSeekの成功は必然。ビッグテックがやりたくないことをやった
                                      • 何かと話題のDeepSeekをMacのローカル環境で実行してみた! - Qiita

                                        これらのモデルは、元のモデルに比べるとかなり小型化されています。 蒸留(ディスティレーション)を通じてモデルを“圧縮”することで、推論の速度を向上させ、一般的なPCやiPhone等のスマートフォンでも動作可能なレベルに調整されています。 驚異のパフォーマンス:小型でも特定タスクでGPT-4oを超える? DeepSeekのテクニカルペーパーによると、Distilled Modelsのベンチマークテストでは、 「8Bパラメータのモデルでさえ、特定のタスクにおいてGPT-4o(昨年5月時点のバージョン)を上回る」 という結果が出ています。 ただし、これは数学やコード生成といった特定のタスクに特化したトレーニングを行った場合の話です。 総合的な文章生成や知識カバー率では、依然としてGPT-4oやClaude、o1などのフロンティアモデルのほうが優れています。 つまり、 「タスクによってはローカルモ

                                          何かと話題のDeepSeekをMacのローカル環境で実行してみた! - Qiita
                                        • Cline+ローカル版DeepSeek R1でAIコーディングを使い放題にする(高スペックマシン向け)|しぴちゃん

                                          しぴぴぴ! Vtuberのしぴちゃん (https://www.youtube.com/@CP-chan) です。 配信ではゲームの話しかしてませんが、今回はAIに関する連載ということでローカル環境(手元のマシン)で動かせるAIの話をしていきます。 第一弾 DeepSeek R1をほぼ準備なしからローカルGPUで動かす 第二弾 本記事 Cline+ローカル版DeepSeek R1でAIコーディングを使い放題にする(高スペックマシン向け) 第三弾 GPUなしでも動く!ローカルLLMとllama.vscodeでコード補完 今回は連載の第二弾です。 LLMをローカルにインストールする大きなメリットとして、API制限や従量課金から解放されてLLMが「使い放題」になるという点があります。 DeepSeekは一世代前のV3ならWebで使ってもそんなに高くないのですが (https://api-docs

                                            Cline+ローカル版DeepSeek R1でAIコーディングを使い放題にする(高スペックマシン向け)|しぴちゃん
                                          • DeepSeek、素直すぎて研究機関による安全テストに全部不合格

                                            DeepSeek、素直すぎて研究機関による安全テストに全部不合格2025.02.07 16:0072,664 AJ Dellinger - Gizmodo US [原文] ( そうこ ) AI市場を牽引してきたアメリカのAI企業株を一気にぶち下げた、中国のバケモノAI「DeepSeek」。世界が今最も注目する存在と言っても過言ではありません。が、セキュリティを不安視する声もあがっています。 テスト全落ちCiscoの研究チームが、DeepSeekのAIモデルDeepSeek R1を調査。AI使用において危険・有害だと思われる攻撃的テスト50を実施したところ、そのすべてでしっかりと罠にひっかかってしまいました。そのひっかかり度100%! この手のテスト受けたメインどころの大規模言語モデルの中で、最もひっかかっています。つまり、安全性が低いということ。 Cisco研究チームが使用したのは、言語モ

                                              DeepSeek、素直すぎて研究機関による安全テストに全部不合格
                                            • DeepSeek推しのローカルLLM勢から見るDeepSeek|Holy_fox

                                              はじめに初めまして、ほーりふぉっくすと申します。 この記事ではDeepSeekがなぜここまで流行り、選べられているのかを大規模言語モデル(LLM)の開発を生業としてる人がローカルLLM勢の視点から説明します。 ※ローカルLLMとは自分のデバイス上で動く大規模言語モデルのことです。 自己紹介ローカルLLM開発をしているほーりふぉっくす(https://x.com/Holy_fox_LLM)と申します。 DeepSeekを去年の8月よりデータ生成・コード生成に使っており、日本人の中では多分結構早く触っていた方だと思います。 そんな私から見るDeepSeek社、DeepSeek v3 DeepSeek R1について書いていこうと思います。 DeepSeekの概要2023年に中国の浙江省杭州市で設立されたAI開発を専門とする企業です。 そしてそのDeepSeekが出したモデルがDeepSeek-v

                                                DeepSeek推しのローカルLLM勢から見るDeepSeek|Holy_fox
                                              • DeepSeek-R1がNPU上で動作できるようMicrosoftが移植

                                                  DeepSeek-R1がNPU上で動作できるようMicrosoftが移植
                                                • DeepSeekはクオンツから誕生、「オタク」が運用挫折乗り越え開発

                                                  3年前、梁文峰氏のクオンツヘッジファンド会社は中国株式市場の混乱で損失を出したとして投資家に謝罪し、「深く恥じ入る」と表明していた。 人工知能(AI)を駆使して銘柄を選び出し、中国最大手のクオンツファンドの一つに急成長した梁氏のハイフライヤー・クオント(幻方量化)にとっては、予想外のつまずきだった。ピーク時に120億ドル(約1兆8600億円)を超えていた同社資産は、この危機で3分の1余り縮小した。その裏側で、梁氏はAIスタートアップ、DeepSeek(ディープシーク)の下準備に着手していた。 こうして幻方量化から生まれたディープシークは、世界的なAIサプライチェーンと重要なAI技術で他の追随を許さないと見られた米国の優位性を今や脅かしている。設立から2年足らずの企業による技術は急激に人気化する一方、27日の欧米株式市場を急落させ、合わせて1兆ドルに近い時価総額が失われた。 また、中国本土以

                                                    DeepSeekはクオンツから誕生、「オタク」が運用挫折乗り越え開発
                                                  • 中国ディープシーク、米オープンAIからデータを不正入手か…米報道(読売新聞オンライン) - Yahoo!ニュース

                                                    中国の新興AI(人工知能)開発企業「ディープシーク」を巡り、米ブルームバーグ通信は28日、ディープシークの関係者が対話型AIサービス「チャットGPT」を開発した米オープンAIからデータを不正に入手した可能性があると報じた。オープンAIと、提携する米マイクロソフトが調査に着手したとしている。 【表】ディープシークとオープンAIを比較すると違いは大きい 報道によれば、ディープシークの関係者とみられる人物が昨年秋、オープンAIから大量のデータを盗み出した可能性があるという。マイクロソフトのセキュリティー担当の研究者がこの事態に気付き、オープンAIに通知したとしている。 トランプ政権でAI分野の政策責任者を務める著名投資家のデービッド・サックス氏は28日、FOXニュースとのインタビューで、ディープシークがオープンAIから技術やデータを盗み、自社のAIモデルの開発に悪用した可能性を示唆した。今後数か

                                                      中国ディープシーク、米オープンAIからデータを不正入手か…米報道(読売新聞オンライン) - Yahoo!ニュース
                                                    • DeepSeekは“脱獄”による悪用が簡単 話題のLLMにセキュリティ企業が注意喚起

                                                      米パロアルトネットワークスの脅威インテリジェンスチームUnit 42は、中国のAI企業「DeepSeek」がオープンソースで公開するLLM(大規模言語モデル)が“脱獄”しやすく、専門知識や専門技術がなくても悪意のあるコンテンツを作成できることをブログで指摘した。 脱獄(jailbreak)とは、LLMに実装されたガードレール(安全対策のための制限機能)を回避して、たとえば「マルウェアのソースコード」や「爆発物の製造マニュアル」「特定人物のプライバシー情報」など、悪意のあるコンテンツや禁止されたコンテンツを生成させる行為だ。 今回、Unit 42がDeepSeekのLLMに対して、「Deceptive Delight」「Bad Likert Judge」といった脱獄手法や、LLMとのやり取りを重ねて制限を緩める「Crescendo」という手法を試したところ、次のような結果が得られたという。

                                                        DeepSeekは“脱獄”による悪用が簡単 話題のLLMにセキュリティ企業が注意喚起
                                                      • 【蒸留モデル】DeepSeek-R1ローカル実行時におすすめのモデル - Qiita

                                                        Deleted articles cannot be recovered. Draft of this article would be also deleted. Are you sure you want to delete this article? 大規模言語モデル(LLM)をローカル環境で実行することへの需要が高まっています。本記事では、2025年1月にリリースされたDeepSeek-R1モデルファミリーを、Ollamaを使用してローカル環境で実行する方法について解説します。 Roo Codeと使用するには下記も御覧ください 環境要件 実行環境には以下が必要です: Ollamaがインストール済みであること GPUを使用する場合:NVIDIA GPUと対応するドライバー モデルに応じた十分なRAMとGPUメモリ(詳細は後述) まだOllamaをインストールしていない場合は、Olla

                                                          【蒸留モデル】DeepSeek-R1ローカル実行時におすすめのモデル - Qiita
                                                        • cyberagent/DeepSeek-R1-Distill-Qwen-32B-Japanese · Hugging Face

                                                          DeepSeek-R1-Distill-Qwen-32B-Japanese Model Description This is a Japanese finetuned model based on deepseek-ai/DeepSeek-R1-Distill-Qwen-32B. Usage from transformers import AutoModelForCausalLM, AutoTokenizer, TextStreamer model = AutoModelForCausalLM.from_pretrained("cyberagent/DeepSeek-R1-Distill-Qwen-32B-Japanese", device_map="auto", torch_dtype="auto") tokenizer = AutoTokenizer.from_pretrained

                                                            cyberagent/DeepSeek-R1-Distill-Qwen-32B-Japanese · Hugging Face
                                                          • 【コラム】孫正義氏とDeepSeekから、スターゲートに教訓-トーベック

                                                            【コラム】孫正義氏とDeepSeekから、スターゲートに教訓-トーベック Catherine Thorbecke Masayoshi Son, chairman and chief executive officer of SoftBank Group Corp., speaks during the SoftBank World event in Tokyo, Japan, on Thursday, Oct. 3, 2024. Son sketched out one of the most aggressive timelines for the adoption of artificial intelligence yet, envisioning a near future where the technology would run entire households. Phot

                                                              【コラム】孫正義氏とDeepSeekから、スターゲートに教訓-トーベック
                                                            • DeepSeek、AI開発に関するシリコンバレーの前提覆す―巨額投資に疑義

                                                              人工知能(AI)大手企業のトップが先週、世界経済フォーラム(WEF)年次総会でスイスのダボスに集まったが、トップらの目は東アジアに向いていた。 パネル討論会や非公式の会話でテクノロジー企業の経営陣は、米国とその同盟国がAI開発で中国に後れを取らないためには、より多くのデータセンターを構築し、規制について適切なバランスを取る必要があると強調した。 アルファベットのルース・ポラット社長兼最高投資責任者(CIO)は「モデルでわれわれは恐らく1年先行」していると、ブルームバーグ・ニュースに語った。しかし、米国がその優位を維持することは「当然の帰結ではない」と付け加えた。 それさえも楽観的過ぎる見方だったのかもしれない。同じ週、あまり知られていない中国のAIスタートアップ企業DeepSeek(ディープシーク)が、人間の推論方法を模倣できる新しいオープンソースAIモデル「R1」を発表した。同社は、R1

                                                                DeepSeek、AI開発に関するシリコンバレーの前提覆す―巨額投資に疑義
                                                              • DeepSeek-R1 の概要|npaka

                                                                「DeepSeek-R1」の概要をまとめました。 1. DeepSeek-R1「DeepSeek-R1」は、「DeepSeek」が開発した、オープンで高性能なReasoning能力を持つ大規模言語モデルです。2025年1月に発表され、OpenAIのo1と同等の性能を持つとされています。 ・deepseek-ai/DeepSeek-R1 特徴は、次のとおりです。 ・強力なReasoning能力 強化学習を用いた革新的なアプローチにより、特に数学や科学的推論において優れた性能を発揮。 ・オープン MITライセンスのもとで提供さている。 ・低コスト API価格が「OpenAI o1」の25分の1以下と、非常に低価格で利用できる。 ・長いコンテキスト長 最大128Kトークンのコンテキストを扱えるため、長文の処理や要約に優れている。 Webサイトと API が現在公開されています。今すぐ http:

                                                                  DeepSeek-R1 の概要|npaka
                                                                • Ollamaを活用したDeepSeek-R1のローカルLLM構築ガイド

                                                                  DeepSeek-R1は、ローカル環境での大規模言語モデル(LLM)の実行を可能にする強力なモデルです。Ollamaは、そのセットアップと実行を簡素化するツールとして最適です。この記事では、Ollamaを使用してDeepSeek-R1をローカルで実行する手順を説明します。 DeepSeek-R1をローカルで実行するためのOllamaセットアップ手順 1. システム要件の確認 オペレーティングシステム:macOS、Linux、またはWindows ハードウェア: RAM:最低8GB(推奨16GB以上) GPU:NVIDIA GPU(CUDA対応)を推奨。ただし、GPUがない場合でもCPUでの実行は可能ですが、パフォーマンスは低下します。 ディスク容量:モデルサイズに応じて10GB以上の空き容量 なお、今回はGPUを搭載していないノートPCでOllamaを実行しました。 2. Ollamaのイ

                                                                    Ollamaを活用したDeepSeek-R1のローカルLLM構築ガイド
                                                                  • DeepSeek、チャット履歴含む100万件超のログが外部から閲覧できた可能性 米セキュリティ企業が指摘

                                                                    Wizは「組織は増加するスタートアップやプロバイダーのAIツールやサービスの導入を急いでいるが、同時にこれらの企業に機密データを託していることを忘れてはならない」と指摘している。 DeepSeekは21日、米OpenAIのハイエンドモデル「o1」と同レベルの性能をうたう大規模言語モデル(LLM)「DeepSeek-R1」を公開。高性能ながら開発コストが極めて低いとの情報が広がり、注目を浴びている。 【訂正:2025年1月30日午後3時】当初、見出しで「情報漏えいか」としていましたが、Wizのレポートには実際に漏えいした可能性には言及していなかったため、記事タイトルを変更しました。 関連記事 DeepSeekが集める個人情報は「中華人民共和国にある安全なサーバに保存」 中国DeepSeekのサービスが急激に注目を集めている。同社のプライバシーポリシーには、収集した個人情報は中国のサーバーに保

                                                                      DeepSeek、チャット履歴含む100万件超のログが外部から閲覧できた可能性 米セキュリティ企業が指摘
                                                                    • ディープシーク開発の生成AI 平デジタル相“利用控えるよう” | NHK

                                                                      中国の「ディープシーク」が開発した生成AIをめぐり、平デジタル大臣は、個人情報の取り扱いなどの懸念が払拭(ふっしょく)されないかぎり、各省庁での利用を控えるよう注意喚起を行いたいという考えを示しました。 中国のスタートアップ企業「ディープシーク」が開発した生成AIをめぐっては、個人データの収集などに関する情報の開示が不十分だとして欧米を中心に警戒感が広がっています。 こうした中、平デジタル大臣は沖縄県名護市で講演し「個人情報がきちんと保護されるのかが問題だ。利用者の個人情報を守るという観点から必要があれば、個人情報保護委員会が対応すべきだ」と指摘しました。 そのうえで「データの保護という観点で懸念が払拭されるまでは、公務員が使うのは控えるか、使うのであれば留意すべきだ。今回の生成AIにどう向き合うか、できることをやっていきたい」と述べ、各省庁に対し、NISC=内閣サイバーセキュリティセンタ

                                                                        ディープシーク開発の生成AI 平デジタル相“利用控えるよう” | NHK
                                                                      • 話題の中華LLM「DeepSeek R1」は、天安門事件を説明できるか あれこれ質問した

                                                                        話題の中華LLM「DeepSeek R1」は、天安門事件を説明できるか あれこれ質問した(1/2 ページ) 1月20日(日本時間)に突如登場し、AIユーザー・開発者たちの話題をさらった大規模言語モデル(LLM)「DeepSeek-R1」。特徴は、分野によっては米OpenAIの「o1」に匹敵するとうたう性能だ。すでにその能力を試すユーザーが続出している。 一方、開発元が中国企業ということもあり、答える内容の偏りなどを懸念する声も多い。筆者も実際に試したが、環境によっては確かに回答が得られない質問が存在した。 「天安門事件を知っているか」 R1の回答は 例えば六四天安門事件に関する質問。開発会社が提供するチャットUI上でDeepSeek-R1を使用し、「天安門事件を知っているか」「天安門広場を占拠していたデモ隊に、中国人民解放軍が実力を行使し、死傷者を出した事件について教えてほしい」などと聞い

                                                                          話題の中華LLM「DeepSeek R1」は、天安門事件を説明できるか あれこれ質問した
                                                                        • 変わり身はやっ。マイクロソフトが「DeepSeek」を提供開始

                                                                          変わり身はやっ。マイクロソフトが「DeepSeek」を提供開始2025.01.30 21:3088,879 satomi OpenAIひとすじと思ったら大間違い。 彗星のごとく現れた中国のAI「DeepSeek(ディープシーク)」に一番はしゃいでるのは、Microsoft(マイクロソフト)のサティア・ナデラCEOかもしれません。OpenAIのデータをDeepSeekに無断で使用された疑いで調査を進めるのと同時進行で、DeepSeek最新モデルR1をAzure AI Foundryのカタログにちゃっかり加えて提供を開始しました。 以下は公式ブログからの抜粋です。 「DeepSeek R1にアクセスできるようになりました。Azure AI Foundry経由でなら、企業は信頼性の高いスケーラブルな法人対応のプラットフォーム上で、SLA、セキュリティ、責任あるAIのコミットメントの要件を満たしな

                                                                            変わり身はやっ。マイクロソフトが「DeepSeek」を提供開始
                                                                          • 中国DeepSeekのAIアプリ、アメリカで首位に 市場に警戒感 - 日本経済新聞

                                                                            中国の人工知能(AI)開発企業、DeepSeek(ディープシーク)の生成AIアプリが米国のアプリストアで一時首位に立った。低コストで開発した大規模言語モデルの性能が米国製の競合モデルを上回ったと主張し、消費者らが注目している。米国のAI産業の優位性が揺らぐとの警戒感から、株式市場も反応した。ほぼ無名だった中国のスタートアップがにわかに注目を集めるきっかけとなったのは、米CNBCテレビの前週末の

                                                                              中国DeepSeekのAIアプリ、アメリカで首位に 市場に警戒感 - 日本経済新聞
                                                                            • DeepSeekの登場で株価が下落したNVIDIAが「DeepSeekの推論にも相当のNVIDIAチップが必要」と主張し自社の価値をアピール

                                                                              大企業が多額のコストと時間を費やして完成させたAIモデルよりも優れているとされる「R1」を中国AI企業のDeepSeekが発表し、既存のモデルよりもはるかに少ないコストでトレーニングしたことが判明したために、投資家の間でトレーニングに使用されるNVIDIAチップの価値に疑問が生じ、NVIDIAの株価が1日で約17%下落しました。これを受け、NVIDIAが「DeepSeekの推論実行には相当のNVIDIAチップが必要」と急きょ発表し、信頼の回復を図りました。 Nvidia calls China’s DeepSeek R1 model ‘an excellent AI advancement’ https://www.cnbc.com/2025/01/27/nvidia-calls-chinas-deepseek-r1-model-an-excellent-ai-advancement.ht

                                                                                DeepSeekの登場で株価が下落したNVIDIAが「DeepSeekの推論にも相当のNVIDIAチップが必要」と主張し自社の価値をアピール
                                                                              • DeepSeekがデータ不正利用か OpenAIとMicrosoft調査 - 日本経済新聞

                                                                                【シリコンバレー=渡辺直樹】中国の生成AI(人工知能)スタートアップ、DeepSeek(ディープシーク)が米オープンAIのデータを不正利用した疑いが浮上した。米ブルームバーグ通信が28日に報じた。オープンAIは政府や提携する米マイクロソフトと連携し調査を進めていると明らかにした。ディープシークは2024年末から25年1月にかけて、オープンAIの「Chat(チャット)GPT」に匹敵する性能を持つ

                                                                                  DeepSeekがデータ不正利用か OpenAIとMicrosoft調査 - 日本経済新聞
                                                                                • アメリカ海軍が中国企業DeepSeekの開発したAIの使用を全面的に禁止

                                                                                  OpenAIや他のアメリカのAI企業のモデルと同等の性能を持つ、中国企業・DeepSeekによる推論モデルの登場が話題となっていますが、アメリカ海軍は仕事でも私用でもDeepSeekのAIを使用しないよう通達していることがわかりました。 U.S. Navy bans use of DeepSeek AI: 'Imperative' to avoid using https://www.cnbc.com/2025/01/28/us-navy-restricts-use-of-deepseek-ai-imperative-to-avoid-using.html China's DeepSeek AI Faces First Ban After Navy Email Tells Members To Stop Using It https://wccftech.com/chinas-deepse

                                                                                    アメリカ海軍が中国企業DeepSeekの開発したAIの使用を全面的に禁止

                                                                                  新着記事









                                                                                  ApplySandwichStrip

                                                                                  pFad - (p)hone/(F)rame/(a)nonymizer/(d)eclutterfier!      Saves Data!


                                                                                  --- a PPN by Garber Painting Akron. With Image Size Reduction included!

                                                                                  Fetched URL: http://b.hatena.ne.jp/q/deepseek

                                                                                  Alternative Proxies:

                                                                                  Alternative Proxy

                                                                                  pFad Proxy

                                                                                  pFad v3 Proxy

                                                                                  pFad v4 Proxy