Baiduは、エッジとクラウドコンピューティング用のKunlun AIチップを発表

Baiduは本日、AIのための新しいチップを発表し、 Google Nvidia インテル 他の多くのハイテク企業が特に人工知能のためにプロセッサーを製造しています。

Kunlunは、データセンターを介して、デバイスとクラウドのエッジコンピューティングのためのAIモデルを扱うように作られています。 Kunlun 818-300モデルはAIのトレーニングに使用され、818-100は推論のために使用されます。

Baiduは、2011年にディープ・ラーニング向けに特別に設計されたフィールド・プログラマブル・ゲート・アレイ(FPGA)チップで作業を開始したと同社は述べています。 同社の広報担当者は、VentureBeatに電子メールで「Baiduの最初のFPGAチップより約30倍高速で、1秒当たり260テラ操作(TOPS)と512GB /秒のメモリ帯域幅を実現できる」と語った。 チップのリリース日は設定されていません。

FPGAチップはまた、 クラウドでの高速AI処理用のMicrosoftのプロジェクトBrainwave

「AIアプリケーションの急速な普及に伴い、計算能力に劇的な要求が課されています。 伝統的なチップは、どれだけのコンピューティングパワーが利用できるか、それではAI技術をどの程度まで加速できるかを制限しています。 “Baiduはこの需要への答えとして、大規模なAI作業負荷用に特別に設計されたこのチップを開発しました。

この発表は、北京で開催された第2回Baidu Create AI開発者会議で行われました。

今日も発表された:BaiduのApolloプログラムは、Apolongの自己運転バスに電力を供給するのに役立つだろう。

Apolongは中国のバス会社King Longと共同開発し、BaiduのApollo自律走行プラットフォームを利用しています。 商業用乗客用のバスは、北京、深セン、平安、武漢などの中国の都市や日本の東京で運営されます。 およそ100のApolongバスが既に作られており、2019年の早い時期に道路を打つ予定です。

上:Apolong自走バス

イメージクレジット:Baidu

Baiduはまた、Baidu Brain 3.0のリリースとともに、AIサービスのスイートへのアップグレードを発表しました。 アップグレードされたプラットフォームは、AIモデルの簡単なドラッグ&ドロップトレーニングを提供することができ、現在コンピュータビジョンから自然言語処理、顔認識ソフトウェアまで110のAIサービスを提供しています。

比較すると、最後のBaidu CreateカンファレンスでBrainプラットフォームは60 AIサービスを提供した、と広報担当者は述べた。

米国と中国の100以上の技術・運輸会社の支援を得ているApollo自律走行プラットフォーム IntelのMovidiusと提携

Baidu Createで発表されたのは、小売顧客向けのMovidiusのビジュアル処理ユニットを搭載したカメラXeyeでした。

シェアする

  • このエントリーをはてなブックマークに追加

フォローする