セクションを選択

大規模言語モデルとは

URL をコピー

 

Red Hat OpenShift AI で、あらゆる環境での AI の導入を迅速化

Red Hat® OpenShift® AI が統合されたツール、反復可能なワークフロー、柔軟なデプロイメント・オプション、および信頼できるパートナーエコシステムを通して AI/ML モデルのライフサイクル全体とアプリケーションの提供をどのように加速するのかを、この動画でご確認ください。

 

大規模言語モデル (LLM) とは、自然言語処理 (NLP) で使用される AI (人工知能) モデルの一種です。大量のデータを学習し、人間の言語の理解と生成を目的としています。LLM は、コミュニケーションやデータ処理のさまざまな側面を自動化および強化しようとしている企業や組織にとって極めて大きな価値があります。 

LLM はニューラルネットワークをベースとするモデルを使用しており、通常その出力を処理および計算するために自然言語処理 (NLP) 技術を採用します。NLP は人工知能 (AI) の一分野であり、コンピュータがテキストを理解、解釈、生成できるようにすることに重点を置いています。これにより、LLM はテキスト分析、感情分析、言語翻訳、音声認識などのタスクを実行できるようになります。

Red Hat の AI を探索

LLM は「教師なし学習」と呼ばれる方法を用いて言語理解を形成します。このプロセスでは、機械学習モデルに何千億もの単語やフレーズのデータセットを提供し、手本から学習させます。事前トレーニングとしての教師なし学習フェーズは、GPT-3 (Generative Pre-Trained Transformer) や BERT (Bidirectional Encoder Representations from Transformers) のような LLM の開発における基本的なステップです。 

言い換えれば、人間の明示的な指示がなくてもコンピュータはデータから情報を引き出し、つながりを作り、言語について「学習」することができます。単語がどのように組み合わされているかというパターンを学習するにつれて、確率に基づいて文章がどのように構成されるべきかという予測を立てることができます。その結果として誕生するのが、単語と文章の間の複雑な関係を捉えることができるモデルです。 

LLM は莫大なリソースを必要とする

LLM は関係性を見つけるために常に確率を計算しているため、多大な計算リソースを必要とします。計算能力を引き出すリソースのひとつがグラフィックス処理装置 (GPU) です。GPU は、複雑な並列処理タスクを処理するために設計された特殊なハードウェアであり、LLM のように多くの計算を必要とする ML やディープラーニングモデルに最適です。

LLM とトランスフォーマー

GPU はまた、ほとんどの LLM が実装している NLP タスク専用に設計されたソフトウェア・アーキテクチャの一種であるトランスフォーマーのトレーニングと操作を高速化するのにも有益です。トランスフォーマーは、ChatGPT や BERT のような人気の LLM 基礎モデルの基本的な構成要素です。

トランスフォーマー・アーキテクチャは、文中の単語など、一連のデータにおける要素間の文脈上の関係と依存関係を取り込めるようにすることで、ML モデルの機能を強化します。これは、パラメーターとも呼ばれる自己注意メカニズムによって実現されます。このメカニズムにより、モデルはシーケンス内のさまざまな要素の重要性を計り、理解とパフォーマンスを向上させることができます。パラメーターは境界を定義し、ディープラーニングのアルゴリズムが処理する必要がある膨大な量のデータから有意義な成果を引き出すには境界が重要です。

トランスフォーマー・アーキテクチャには数百万から数十億のパラメーターが含まれ、これによって複雑な言語パターンやニュアンスを捉えることができます。実際、「大規模言語モデル」の「大規模」という単語は LLM を操作するのに必要な膨大な数のパラメーターを指しています。

LLM とディープラーニング

LLM による教師なし学習のプロセスを導くのに役立つトランスフォーマーとパラメーターは、ディープラーニングと呼ばれる、より広範な構造の一部です。ディープラーニングは、人間の脳をヒントに開発されたアルゴリズムを使用してコンピュータにデータを処理する方法を教える人工知能技法です。ディープ・ニューラル・ラーニングやディープ・ニューラル・ネットワークとも呼ばれているディープラーニング技法とは、観測を通じてコンピュータに学習させるもので、人間が知識を獲得する方法を模しています。 

人間の脳には相互につながる多数の神経があり、脳が情報 (つまりデータ) を処理するときに情報の伝達役として機能します。このニューロンは電気信号と化学的物質による信号を使用して相互に通信し、脳のさまざまな部分と情報をやりとりします。 

人工ニューラルネットワーク (ANN) はディープラーニングの基盤となるアーキテクチャで、この生体現象に基づいています。ただし、この現象はノードと呼ばれるソフトウェアモジュールから作成される人工ニューロンで形成されています。モデルにおいては、これらのノードは数理計算 (脳の場合は化学的信号) を使用して情報の通信と転送を行います。

LLM の運用についての詳細はこちら

先進的な LLM は、従来のパーソナルコンピュータでは考えられなかったような方法で言語を理解し、活用することができます。これらの機械学習モデルでは、テキストの生成、コンテンツの要約、翻訳、リライト、分類、カテゴライズ、分析などを行うことができます。こういった能力はすべて、人の創造性を補強し、困難な問題を解決するための生産性を向上させる強力なツールセットとなります。

ビジネスシーンにおける LLM の最も一般的な用途には、以下のようなものがあります。

自動化と効率化
LLM は、カスタマーサポート、データ分析、コンテンツ生成などの言語に関連する業務を補ったり、完全にその役割を担ったりすることができます。この自動化によって、人的資源をより戦略的な業務に割り当て、運用コストを削減することができます。 

分析情報の生成
LLM は大量のテキストデータを素早く精査できるため、企業はソーシャルメディア、レビュー、研究論文などのソースをスクレイピングすることで、市場動向や顧客からのフィードバックをより深く理解することができ、ひいてはビジネス上の意思決定に役立てることができます。

より良い顧客体験の創造
LLM は、企業が高度にパーソナライズされたコンテンツを顧客に提供し、エンゲージメントを促進し、ユーザーエクスペリエンスを向上させるのに役立ちます。チャットボットを導入して 24 時間体制でカスタマーサポートを提供したり、ユーザーに合わせてマーケティングメッセージをカスタマイズしたり、言語翻訳や異文化コミュニケーションを促進したりと、さまざまなことが可能になります。 

LLM の課題と限界

ビジネス上で LLM を利用することには多くのメリットがある一方で、考慮すべき潜在的な限界もあります。

  • コスト
    LLM の開発、トレーニング、デプロイには多大なリソースが必要です。多くの LLM が基礎モデルから構築されるのはこのためです。基礎モデルは、NLP 能力により事前に訓練され、より複雑な LLM を構築するための言語理解のベースラインを提供します。
  • プライバシーとセキュリティ 
    LLM は多くの情報にアクセスする必要があり、その中には顧客情報や独自のビジネスデータが含まれる場合もあります。これは、サードパーティ・プロバイダーがモデルをデプロイしたり、モデルにアクセスしたりする場合に特に注意が必要です。
  • 精度と偏り 
    ディープラーニング・モデルが統計的に偏りのあるデータや母集団を正確に反映しないデータでトレーニングされると、結果が損なわれます。残念なことに、今ある人間の偏見が人工知能に反映されることがよくあり、差別的なアルゴリズムや偏りのある出力を招くリスクを生じさせています。組織では生産性やパフォーマンスの向上に AI を活用しようとし続けていますが、バイアスを最小化するための戦略を適用することが不可欠です。これはインクルーシブデザインのプロセスと、収集したデータ内の代表的な多様性を入念に検討することから始まります。 

 

変革をもたらす AI/ML のユースケースは、医療、金融サービス、通信、自動車などの業界で見られます。Red Hat のオープンソース・プラットフォームと堅牢なパートナーエコシステムは、AI を活用したインテリジェント・アプリケーション向けの ML モデルとディープラーニングモデルの作成、デプロイ、管理に対応する完全なソリューションを提供します。

ハイブリッドクラウドおよびマルチクラウドコンテナ開発プラットフォームのリーダーである Red Hat® OpenShift® によって、データサイエンティストとソフトウェア開発者間のコラボレーションが可能になります。データセンターからネットワークエッジ、マルチクラウドに至るまで、ハイブリッドクラウド環境でのインテリジェント・アプリケーションのロールアウトの速度を上げることができます。

Red Hat OpenShift AI の基盤により、組織は各種のリソースにアクセスして、コンテナ化された機械学習モデルを迅速に開発し、トレーニングし、テストし、デプロイすることができます。この際、Kubernetes インフラストラクチャを設計し、デプロイする必要はありません。ユーザーは、オンプレミスまたはクラウドサービス経由で OpenShift のネイティブ GPU アクセラレーション機能を使用して、基盤モデルのトレーニングのためにさらに安定して拡張することが可能になります。

  Ansible Lightspeed (および IBM watsonx Code Assistant) は、開発者が Ansible コンテンツをより効率的に作成できるようにする生成 AI サービスです。ユーザーによって入力された平易な英語を読み取り、IBM watsonx 基盤モデルと対話して自動化タスクに推奨するコード情報を生成し、これが Ansible Playbook を作成するために使用されます。Ansible Lightspeed を Red Hat Openshift にデプロイすると、インテリジェントな自動化とオーケストレーションによって Kubernetes の複雑な作業が容易になります。 

 

関連資料

記事

生成 AI とは

生成 AI は、大規模なデータセットで訓練されたディープラーニングモデルを使用して新しいコンテンツを作成します。

記事

機械学習とは

機械学習は、明示的にプログラムしなくても、パターンを見つけ、予測し、経験から学習するようにコンピュータをトレーニングする手法です。

記事

基盤モデルとは

基盤モデルは、さまざまなタスクを実行するように訓練された機械学習 (ML) モデルの一種です。 

AI/ML についてさらに詳しく

製品

AI に重点を置いたポートフォリオであり、Red Hat OpenShift 上で AI/ML 実験やモデルをトレーニング、チューニング、提供、監視、管理するためのツールを提供します。

統合されたテスト済みのサービス一式を備えたエンタープライズ・アプリケーション・プラットフォームであり、ユーザーの選ぶインフラストラクチャを使ってアプリケーションを市場に投入するために活用できます。 

Red Hat Ansible Lightspeed (および IBM watsonx Code Assistant) は、Ansible の自動化作成者、運用担当者、および開発者によって、彼ら自身のために設計された生成 AI サービスです。 

関連資料

e ブック

本番利用に適した AI/ML 環境構築のための最重要事項

アナリスト資料

MLOps 向け Red Hat ハイブリッドクラウド・プラットフォームの Total Economic Impact™

Web セミナー

オープンソースと Kubernetes で AI を最大限に活用する