ローカルLLMをダウンロードした
個人開発

今日のサマリー
作業ログ
個人開発

ローカルLLMに触れる&Cursorに利用できたら良いと考え、管理ツールであるOllamaをインストール。 そして、3種類のローカルLLMをPCへダウンロードした。 ダウンロード後、LLMを試しに起動して簡単に動作確認を行ったところ、問題なくチャットのやりとりができたことを確認。 今後AI関連の作業を行う際はCursorへの接続方法を実施予定。
今日の気づき・考えたこと
ローカルLLMといってもさまざまなモデルがあり、さらにパラメータ(○○b)が異なるものも用意されているため、自身のPCスペックを考えながら選ばなければいけないといった難しさがあった。 とりあえず、試しながら自分に合ったものを探す必要があると感じた。
雑談
本来今日は新ブログのデザイン作成を行うはずだったが、LogiOption+の障害により、Macでの作業が不可に。 そのため、WindowsPCでAI関連の作業を引き続き行うことにした。 WindowsPCでもデザイン作成は可能だが、作業用途ごとにPCを使い分けたいため、あえて作業はしなかった。