本記事では、AIコーディングエージェントとして知られる「Claude Code」が実際にどう使われているかの調査結果を紹介します。 本記事の関連研究 ChatGPTは実際に開発現場でどう使われているか GitHubのプル […] The post Claude Code生成コードが実際の開発でどう扱われているかの調査結果 first appeared on AIDB.| AIDB
本記事では、LLMの出力が似たようなものになりやすい現象について、それが本当に問題なのかどうかをタスクごとに見ていきます。 タスクによっては、同じ答えを返すことが望ましい場合もあれば、視点や言い回しに幅があったほうがよい […] The post LLMの均質な回答が良いか悪いかはタスクで決まる first appeared on AIDB.| AIDB
本記事では、構造化出力がLLMの質にどう影響するかを取り上げます。出力の形式を変えることで、モデルのふるまいがどう変わるのか。タスクや指示の内容によって、その影響は変わるのか。こうした因果関係を見ていきます。 背景 LL […] The post JSONなどの構造化出力はLLMの質にどう影響するか first appeared on AIDB.| AIDB
本記事では、Copilotを使う際に気をつけたいポイントとして、プロンプトインジェクションによる機密情報の漏洩リスクを検証した事例を紹介します。 プロンプトインジェクションとは、外部のメールや文書に紛れた“指示”が、LL […] The post Copilotサービスを使う上で気を付けたいプロンプトインジェクションによる機密情報漏洩リスク first appeared on AIDB.| AIDB
本記事では、中小企業でLLMを安全に導入するための原則と、その実現を支えるフレームワークを紹介します。 LLMの活用が広がる中で、中小企業も活用の可能性を感じつつ、どう取り組めばよいか悩んでいるケースは少なくありません。 […] The post 中小企業におけるLLM導入を安全なものにするための原則とフレームワーク first appeared on AIDB.| AIDB
本記事では、LLMが誤ってリクエストを拒否してしまう現象について調べた研究を紹介します。 ペルソナの指定やタスクの内容、プロンプトの書き方、使うモデルによって、ふるまいがどのように変わるのかを整理しています。見過ごされが […] The post LLMの誤拒否はいつ起きる ペルソナ・タスク・プロンプト・モデルの影響 first appeared on AIDB.| AIDB
本記事では、主要なLLM事業者6社のプライバシーポリシーを分析した研究を紹介します。調査は、チャットでやり取りされたデータがどのように扱われているかを中心に行われました。| AIDB
本記事では、LLMエージェントの失敗パターンを分析した研究を紹介します。自律的に動くエージェントを設計しても、思うようにタスクをこなせないことは少なくありません。| AIDB
本記事では、LLMエージェントのワークフロー構築に関する枠組みと分類を紹介します。エージェントの設計や連携を進めるうえで、機能や構造をどう整理するかは重要な論点です。| AIDB
本記事では、推論特化型LLMが「考えているように見える表現」にどれほど影響されるかを検証した研究を紹介します。高度な推論能力を持つとされるモデルであっても、表面的な言い回しに判断が左右される可能性があるという点に着目した実験です。| AIDB
運用現場でのLLMの活用が進み、AIOpsのあり方も少しずつ変わりつつあります。これまでのように異常を検知して分類するだけでなく、レポートの作成や対処の提案など、より人に近い作業を担う場面が増えています。| AIDB
本記事ではLLMと一緒に進めるソフトウェア設計の方法を紹介します。設計作業は負担が大きく、もっと効率的に進めたいと感じる人も多いはずです。最近はコード生成などでLLMを使う事例が増えていますが、設計作業での活用はまだこれからです。| AIDB
"The Era of 1-bit LLMs: All Large Language Models are in 1.58 Bits" の論文要約メモです。 はじめに The Era of 1-bit LLMs: All Large Language Models are in 1.58 Bits 概要 手法 結果 おわりに/所感 参考 はじめに 今回まとめる論文はこちら: arxiv.org 2024/02/27 公開 Microsoftのチーム コード: unilm/bitnet at master · microsoft/unilm · GitHub なお本記事で掲載する図は全て上記論文…| BioErrorLog Tech Blog
本記事では、LLMのプライバシーリスクと実践的な対策について紹介します。サービスにLLMを組み込む場面が増えるなかで、どこにどんなリスクがあるのかをあらかじめ把握しておくことが求められています。| AIDB
本記事では、LLMとの関わり方を12の質問で可視化する尺度を紹介します。判断を任せる使い方と、気づかぬうちに感情を寄せてしまう関わり方の2つを軸に、依存の傾向を測る仕組みです。| AIDB
本記事では、LLMに対するプロンプト設計手法をソフトウェア開発タスクに適用して検証した研究を紹介します。| AIDB
本記事では、AIが生成したコードや修正パッチなどの成果物を、LLM(AI自身)を使ってより正確に評価するための新たな研究を紹介します。AIによるコード生成が普及する一方で、その品質や正確性をどう評価するのかが課題になっています。| AIDB
LLMが3Dモデル情報を出力するLLaMA-Mesh、そのBlenderアドオンであるMeshGenで遊びます。 番外編では、ChatGPTを使って同じく3Dモデリングさせてみます。 はじめに LLaMA-Meshをざっくり理解する MeshGenで3Dモデリング MeshGenをBlenderにインストールする MeshGenの使い方 机の3Dモデルを生成する 椅子の3Dモデルを生成する 盆栽の3Dモデルを生成する 番外編: ChatGPTで3Dモデリング 机の3Dモ...| BioErrorLog Tech Blog
Sakana.aiの進化的モデルマージを記述した論文"Evolutionary Optimization of Model Merging Recipes" の論文要約メモです。 はじめに Evolutionary Optimization of Model Merging Recipes 概要 手法 結果 LLMタスク VLMタスク おわりに/所感 参考 はじめに 今回まとめる論文はこちら: arxiv.org 2024/03/19 公開 By Sakana AIのチーム コード: GitHub - SakanaAI/evolutionary-model-merge: Official re…| BioErrorLog Tech Blog
論文読みの手法を、Andrew Ngの講義動画から学びます。 はじめに Andrew Ngに学ぶ論文の読み方 論文を読む 理解を確かめる おわりに 参考 はじめに 最近AI関連を調べている中で、論文に目を通す機会も増えてきました。 そんな中、かのAndrew Ng先生がStanford CS230の講義のなかで論文の読み方について講義している動画を見つけました。 Stanford CS230: Deep Learning | Autumn 2018 | Lecture ...| BioErrorLog Tech Blog
テキストと表の両方を含むハイブリッドな文書からLLMで情報を抽出する能力についてはまだ十分に研究されていません。そこで研究者らは、分割・再結合ベースの方法論を提案しています。実験により、抽出の精度が格段に上昇することを明らかにしました。| AIDB