しぴぴぴ! Vtuberのしぴちゃん (https://www.youtube.com/@CP-chan)です。普段はゲーム配信しかしてませんが、たまにAIについて発信することがあります。今日はAIの記事の方。 現在はローカルAIモデルに関する連載をしています。 第一弾 本記事(DeepSeek R1をほぼ準備なしからローカルGPUで動かす) 第二弾 Cline+ローカル版DeepSeek R1でAIコーディングを使い放題にする(高スペックマシン向け) 最近話題のローカルで動くLLM、DeepSeek R1 をローカルGPU環境(NVIDIA)で動かしてみましょう。 多少のコマンドラインの操作ができれば、事前にローカルLLMを触ったことがなくてもインストールできるように書くつもりです。 サムネはDeepSeek R1くんに画像を生成してもらおうとしたところです(そんな機能はありません)。
Deleted articles cannot be recovered. Draft of this article would be also deleted. Are you sure you want to delete this article? 結論 スポットで使うならColab、Runpodが最強 ゲーミングPCでいいならどこかで買うかBREAJONでサブスクしよう だいたいRunpodさんがなんとかしてくれる 今回の記事について こんにちは!逆瀬川 ( https://x.com/gyakuse ) です!今日は最強のGPUプロバイダー決定戦をします。世は大GPU時代となりました。Valorantをやるにも、APEXをやるにも、ある程度高性能なGPUが必要です。League of Legends はノートパソコンでも遊べるのでおすすめです。 その他の利用として機械学習のモデ
CUDAのプログラムを書くための emacs の設定です cuda-mode まずcuda-modeをインストールします 設定はこれだけ (use-package cuda-mode :mode ("\\.cu\\'" "\\.cuh\\'") ) これでCUDA関連の予約語などがhighlight表示されます lsp 関連 clangd 経由でCUDAのコードでもlspが使えます 設定も簡単です 設定ファイル .clangd を用意 C/C++と同様に lspを使う これだけです .clangdはソースコードと同じディレクトリに配置します .clangd の内容は以下のとおり CompileFlags: Add: - --cuda-path=/usr/lib/cuda - -L/usr/lib/cuda/lib64 - -I/usr/lib/cuda/include これで clangd
NVIDIA CUDA-X Libraries NVIDIA CUDA-X™ Libraries, built on CUDA®, is a collection of libraries that deliver dramatically higher performance—compared to CPU-only alternatives—across application domains, including AI and high-performance computing. NVIDIA libraries run everywhere from resource-constrained IoT devices to self-driving cars to the largest supercomputers on the planet. As a result, user
SPOC is a set of tools for GPGPU programming with OCaml. The SPOC library enables the detection and use of GPGPU devices with OCaml using Cuda and OpenCL. There is also a camlp4 syntax extension to handle external Cuda or OpenCL kernels, as well as a DSL to express GPGPU kernels from the OCaml code. This work was part of my PhD thesis (UPMC-LIP6 laboratory, Paris, France) and was partially funded
SCALE is a GPGPU programming toolkit that allows CUDA applications to be natively compiled for AMD GPUs.
よくわからなかったので、調べて整理しようとした試み。 Compute Capability GPU ハードウェアがサポートする機能を識別するためのもので、例えば RTX 3000 台であれば 8.6 であるなど、そのハードウェアに対応して一意に決まる。 アーキテクチャの世代が新しくなり、機能が増えるほど、この数字も上がっていく。 以下のリンク先に、Compute Capability と機能の対応表があるが、これを見ると(少なくとも執筆時点で) Compute Capability 7.x 以上でテンソルコアが使えるといったことがわかる。 それぞれの機種がどの値かは以下のサイトから確認できる。 NVIDIA Driver のバージョン Compute Capablity 一般向けの Compute Capability との関連性は見つからなかったが、データセンタ向けの資料には Maxwe
はじめに こんにちは、TC3 AIチームの@mumeco_mlです!弊社は2022/10からGCP Cloud Partnerとなっておりまして、現在GCP(Google Cloud Platform)のプロジェクトでの活用をより促進しております。今回は、このGCPの機能の1つであるCompute Engineを利用したAI開発環境の作り方をご紹介いたします。GCPのVMで開発環境を作る場合、大きく分けて事前にML用に用意された環境を利用する方法と、Dockerを使ってOS環境等も含めて作る方法があると思いますが、今回は前者を説明します。需要があれば、後者の解説も作ろうと思います。 クラウド開発環境の利点・欠点 利点 高額なGPUをオンデマンドで効率的に活用できる ローカルマシンの動作が重くならない 任意のマシンスペックを利用できる 欠点 使用時間に応じて課金される 実際に開発するまでに環
<米国株情報>ブラックストーンら投資家グループ、GPUクラウド大手コアウィーブに1兆円超を融資 最終的に一蓮托生になりそうな予感。 これまで当ブログでは過去にこれから来るバブルについて書いたことがあったが、この中にプライベートクレジットバブルとAIバブルの2つを挙げていた。 【過去参考記事】 現在起こり得るバブルをおさらい しかし、どうやら上記ニュース記事を見る限り、これはバラバラにバブルになると見るべきではないと感じつつあるので、これについてまとめていきたい。 上記ニュース記事はGPUクラウド大手のコアウィーブという会社に対してプライベートクレジットを提供しているファンド勢が融資したという話である。 なんかよくわからない社名がいっぱい出ているので、順繰りに詳しく書いていきたい。 このコアウィーブというのは元々イーサリアムのマイニング会社であったが、仮想通貨市場が低調になったところでマイニ
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
処理を実行中です
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く