医療・医薬情報インデックスサイト

医療・医薬情報のインデックスサイト

2022年5月6日 (金)
 RSS

Cerebras CS-2は、消費電力を根本的に削減し人工知能作業を加速

カリフォルニア州サニーベール--(BUSINESS WIRE)--(ビジネスワイヤ) --高性能人工知能(AI)コンピューティングのパイオニアであるセレブラス・システムズと、グローバルなバイオ医薬品企業であるAbbVie(アッビィ)は本日、同社のAI業務において画期的な成果を挙げたことを発表します。バイオメディカル自然言語処理(NLP)モデルにセレブラスCS-2を使用することで、AbbVieは1/3のエネルギー消費で、グラフィックス・プロセッシング・ユニット(GPU)の128倍を超える性能を達成しました。AbbVieは、より少ないエネルギーでより迅速にモデルをトレーニングできただけでなく、CS-2のシンプルで標準ベースのプログラミング・ワークフローにより、通常モデルのセットアップとチューニングに割り当てられる時間を劇的に削減しました。


「BERT LARGEモデルのプログラミングとトレーニングで経験する共通の課題は、十分な GPU クラスタリソースを十分な時間提供することです。CS-2システムは、ウォールクロックの改善を提供し、この課題の多くを緩和する一方で、よりシンプルなプログラミングモデルを提供し、我々のチームがより迅速に反復し、より多くのアイデアをテストできるようにすることで、我々のデリバリーを加速させます」と、 AbbVie の AI 部門責任者 Brian Martin 氏は述べています。

免疫学、神経科学、腫瘍学、ウイルス学にまたがる最先端の研究開発に重点を置くAbbVieの科学者にとって、世界中の研究成果を常に把握することは必要不可欠です。そのため、AbbVieは大規模かつ高度なAI言語モデルを用いて、機械翻訳サービスAbbelfishを構築しています。このサービスは、BERT、BERT LARGEBioBERT などの大規模で最先端の Transformer モデルを使用して、180 言語にわたる膨大な生物医学文献のライブラリを正確に翻訳し、検索可能な状態にしています。

Abbelfishの精度と常に最新であることを保証するためには、ドメインに特化したバイオメディカルでゼロからNLPモデルのトレーニングを行い、再トレーニングを行う必要があります。しかし、Abbelfishのモデルは非常に大きく、60億ものパラメータがあります。このようなモデルは、最大級のGPUクラスタでもトレーニングするのは非現実的です。セレブラス・システムズは、このような大規模なAI学習を迅速かつ容易に行えるようにします。

BERT LARGEのような大規模言語モデルは、多くの言語処理および理解タスクにおいて、最先端の精度を実証しています。GPUを使用したこれらの大規模言語モデルのトレーニングは、困難で時間のかかるものです。新しいデータセットでゼロからトレーニングを行うと、レガシー機器の大規模クラスタであっても、数週間かかることがよくあります。クラスタの規模が大きくなると、消費電力、コスト、複雑さが指数関数的に増大します。グラフィック・プロセッシング・ユニットのクラスターをプログラミングするには、稀なスキル、さまざまな機械学習フレームワーク、特殊なツールが必要で、各反復に数週間のエンジニアリング時間がかかります。

CS-2は、これらの課題に直接取り組み、洞察を得るまでの時間を根本的に短縮するために構築されました。CS-2は、シングルノードの簡単なプログラミングで、数百のGPUに匹敵するディープラーニング性能を提供します。その結果、セットアップと設定に費やす時間が減り、トレーニングに費やす時間も減り、より多くのアイデアを探索することができます。AbbVieチームは、Cerebras CS-2を使用して、2日以内にゼロからカスタムBERT LARGEモデルをセットアップし、トレーニングすることができました。

Cerebras SystemsのCEO兼共同創業者のアンドリュー・フェルドマンは、「セレブラス・システムズの目標は、お客様のミッションを加速させるAIを実現することです。また、最もエネルギー効率が高く、導入しやすいAIでなければなりません。AbbVieが大規模な言語モデルを高速化するだけでなく、レガシー・ソリューションの何分の一かのエネルギー消費でそれを実現したことは、信じられないことです」と、述べています。

Cerebras CS-2は、これまでで最大のプロセッサであるCerebras Wafer-Scale Engine 2(WSE-2)を搭載し、最も近い競合製品の56倍もの大きさです。その結果、CS-2は、現存するどのディープラーニング・プロセッサよりも多くのAI最適化コンピュート・コア、高速メモリ、ファブリック帯域幅を提供します。CS-2は、ディープラーニングのワークロードを高速化し、回答までの時間を大幅に短縮することを目的に開発されました。

セレブラスは、北米、アジア、ヨーロッパ、中東に顧客を持ち、グラクソ・スミスクラインアストラゼネカTotalEnergiesnferenceアルゴンヌ国立研究所ローレンス・リバモア国立研究所ピッツバーグ・スーパーコンピューティングセンターエディンバラ・パレルコンピューティングセンター東京エレクトロン デバイスなど、企業、政府、高性能コンピューティング分野で増え続ける顧客に業界トップのAIソリューションを提供しています。

Cerebrasのシステムと健康・医薬での適用詳細についはhttps://cerebras.net/industries/health-and-pharma/をご覧ください。

Cerebrasが第6回AI・人工知能 EXPO 2022に出展

5月11日から13日に東京ビックサイトで開催される「AI・人工知能 EXPO」(小間番号 5-51)で、国内で初めてCS-2とWSE 2展示を行います(静態展示)。最新事例や製品詳細について、より詳しくブースにてご説明させて頂きます。是非ご来場下さい。

招待券をお持ちで無い方はこちらから。

https://www.nextech-week.jp/spring/ja-jp/visit/e-ticket/ai_ex.html?co=AIS1-0232

本記者発表文の公式バージョンはオリジナル言語版です。翻訳言語版は、読者の便宜を図る目的で提供されたものであり、法的効力を持ちません。翻訳言語版を資料としてご利用になる際には、法的効力を有する唯一のバージョンであるオリジナル言語版と照らし合わせて頂くようお願い致します。


Contacts

展示会に関するお問合せ
セレブラス・システムズ合同会社
江尾 浩昌Email: hiromasa.ebi@cerebras.net
プレスリリースに関するお問合せ (メディア関係者のみ)
Kim Ziesemer Email: pr@zmcommunications.com

配信元のページを読む…

※ (C) Business Wire, Inc.
※ 掲載情報は掲載時点での内容になります。内容についてはリンク先の情報が優先します。