Lifematics Corporate Blog

Lifematics社のコーポレートブログへようこそ!

ローカルLLMでPDF処理業務をセキュアに自動化する:帳票処理と論文解析の実践例

こんにちは!Lifematicsのイノベーションチームの松本です。 これまで、弊社からオンプレミス・ローカルLLMの業務活用における得意不得意や、Difyを用いた基盤構築に関する記事を投稿してきました。 オンプレミスLLMが本当に向いている企業とは? オンプレミ…

GitHub Agentic Workflows でAIエージェントの継続的な改善を補助する

GitHub Agentic Workflows を使って、AIエージェント向けの指示ファイルを継続的に見直し・更新する仕組みを紹介します。運用フェーズで後回しになりがちな改善作業を、AIエージェントに補助させることで、開発チームのCopilot運用を無理なく継続改善してい…

オンプレミスLLMが本当に向いている企業とは?

オンプレミスLLM(大規模言語モデル)は、機密情報を外部に出さずにAIを活用できる選択肢です。本記事では、クラウド型AIとの違いを整理しながら、どのような企業にオンプレLLMが向いているのかを分かりやすく解説します。閉域環境、コスト予測、社内システ…

オンプレミス環境でのDify構築ガイド

オンプレミス環境で生成AIを活用したい方向けに、Dify × Ollama × ローカルLLMを使ったAI基盤の構築手順を詳しく解説します。GPUを利用したチャットモデル・埋め込みモデルの追加方法から、RAGアプリケーションの作成例まで、Docker Composeベースで再現可能…

閉域網・オンプレミスでAIをフル活用!Dify × Ollama で構築する「ローカルLLM」のメリットと実践

クラウドLLMに課題を感じている企業向けに、ローカルLLMの考え方とメリットを解説。Dify × Ollama × ローカルLLMを組み合わせた、オンプレミス完結の生成AI活用基盤構成例を紹介します。

JWT認証から始めるSlurm REST API実践ガイド:安全なジョブ投入とシステム連携のステップ

皆さん、こんにちは! HPCクラスターの運用において、「ジョブ状況を外部システムと連携したい」「可視化ダッシュボードを作成したい」「CLI(コマンドラインインターフェース)に縛られず自動化したい」といった高度なニーズが出てくることもあります。 今…

【技術者向け】Slurm実践運用ガイド:実装からトラブルシュートまでを網羅する全知識

皆さん、こんにちは! 高性能計算(HPC)クラスタの運用は年々複雑化しています。 大規模クラスタの効率運用やマルチユーザー環境での公平なリソース配分、GPUやクラウドの統合など、現場には多くの課題があります。 そんな中、Slurmは世界で最も広く使われ…