マネジメント

マネジメント

データ活用の課題解決!モダンデータスタック(MDS)でROIを最大化

モダンデータスタック(Modern Data Stack, MDS)をご存じでしょうか? まだ、日本では馴染みのないMDSですが、今、海外の最先端なデータエンジニアリングの現場では、企業のデータ分析の現場で挙がってくる「迅速なインサイト抽出の難しさ」と「データ資産運用化の複雑性」といった課題に対し、データの分析、効率性向上、新たな機会発見をより迅速かつ低コストで実現することができるモダンデータスタック(MDS)に注目が集まっています。今回は、"モダンデータスタック(Modern Data Stack, MDS)の基本的な解説"の他、"MDSがもたらすROI最大化の効果"について、ご紹介していきます。
マネジメント

「コードをきれいにする」とは?リファクタリングの基本概念とその目的

前回の記事では、「コード品質改善で解決する様々な開発課題」と題し、システムが抱えるパフォーマンスやバグの問題が、表面的な「技術負債」だけでなく、その根底にある「コードの品質」に深く関わっていることをご説明しました。特に「スパゲッティコード」が引き起こす隠れたコストとリスクについてもご理解いただけたかと思います。では、実際にこの「複雑に絡み合ってしまったコード」をどのように「きれいにする」のでしょうか? その鍵となるのが、ソフトウェア開発の世界で長年実践されてきた重要な手法、それが「リファクタリング」です。今回は、リファクタリングの基本とその目的について、解説していきます。
セキュリティ

コード品質改善で解決する様々な開発課題 

「システムが最近、どうも重いんだよな…」 「またあの機能でバグが出たぞ。なんでだろう?」このような声を聞いたり、実際に直面したりしているなら、それは決して珍しいことではありません。多くの企業が、長年運用してきた基幹システムやビジネスアプリケーションのパフォーマンス低下、そして頻発するバグに頭を悩ませています。これらの課題や問題を紐解いていきます。
マネジメント

大規模AIの“重い”課題を解決するSLM

SLMというワードを聞いたことがありますでしょうか? 生成AIの登場により"LLM:大規模言語モデル(Large Language Model)"という言葉が業界内ではよく聞くようになりましたが、"SLM"というワードはあまり聞くことがありません。AI業界はスケールの拡大(モデルの大規模化やパラメータの増加)こそが唯一の競争手段かのような状況になり、規模が大きければ良いといった流れになりつつありますが、一方でクラウドサービスコスト(従量課金)の上昇といった大問題にも直面しています。そんな中で、超大企業以外の多くの企業にとってメリットが大きいのでは?と私たちが考えているSLM(Small Language Models)についてご紹介していきます。
マネジメント

ソースコードが消えた… 見えない負債を価値へ変える

「ソースコードが消えた・・・」「ソースコードを探しても見つからない」という誰もが信じられてないような事態が発生したら、どうしますか?本稿では、「ソースコードが消えてなくなってしまった場合の対処法」や「ソースコードの消失」が貴社のビジネスにどのようなリスクをもたらすのか、この「見えない負債」をいかにして「価値ある資産」へと転換できるのかについての知見や対処法、最新の事例を交えて解説してます。
マネジメント

生成AI時代におけるブランドマネジメントの転換

消費者の情報収集行動が根本的に変化する中、従来のブランドマネジメント手法では企業の競争優位を維持できない危機的状況が到来しています。本記事では、生成AI時代における新たなブランド戦略の必要性と、企業が直面する課題について詳しく解説しています。
マネジメント

レガシーシステム刷新の切り札Go言語

レガシーシステム刷新の切り札Go言語と題して、レガシーシステムを刷新したいが、なかなか踏み切ることができない企業様が、基本中の基本となるプログラミング言語の選定からレガシーシステム刷新後のシステム全体を見出して頂く為のキッカケとなる解説記事です。
マネジメント

学習データの品質の問題がAIの幻覚を引き起こす技術的メカニズム

学習データの品質の問題がAIの幻覚を引き起こす技術的メカニズムについて解説しています。
マネジメント

学習データの偏りや不足がAIの幻覚を引き起こす技術的メカニズム

学習データの偏りや不足がAIの幻覚を引き起こす技術的メカニズムについて解説しています。
フリー

AIの幻覚(AI’s Hallucination Problem)とは何か?

今回は、「AIの幻覚(AI’s Hallucination Problem)とは何か?」と題して、AIの幻覚(AI’s Hallucination Problem)について詳しく正確に解説します。AIに関連する専門的な技術解説です。AIの幻覚とは、人工知能、特に大規模言語モデル(LLM)のような生成AIが、事実に基づかない、あるいは与えられた情報源に存在しない情報を、あたかも真実であるかのように生成してしまう現象を指します。人間が幻覚を見るように、AIが「でっち上げられた」情報を生成することから、この用語が使われるようになりました。
PAGE TOP