<p id="jhtrt"></p>

<p id="jhtrt"><delect id="jhtrt"><menuitem id="jhtrt"></menuitem></delect></p>

<p id="jhtrt"><output id="jhtrt"><menuitem id="jhtrt"></menuitem></output></p>
<pre id="jhtrt"><output id="jhtrt"><menuitem id="jhtrt"></menuitem></output></pre>

<pre id="jhtrt"><p id="jhtrt"></p></pre>
<p id="jhtrt"><output id="jhtrt"><menuitem id="jhtrt"></menuitem></output></p>

<pre id="jhtrt"><output id="jhtrt"><delect id="jhtrt"></delect></output></pre><noframes id="jhtrt">

<p id="jhtrt"></p>

<pre id="jhtrt"><output id="jhtrt"><delect id="jhtrt"></delect></output></pre>

<noframes id="jhtrt"><p id="jhtrt"></p>
<delect id="jhtrt"><delect id="jhtrt"><menuitem id="jhtrt"></menuitem></delect></delect>
<p id="jhtrt"></p>

<pre id="jhtrt"></pre>

<p id="jhtrt"><output id="jhtrt"><delect id="jhtrt"></delect></output></p>

<p id="jhtrt"></p>

<pre id="jhtrt"></pre>

<pre id="jhtrt"><output id="jhtrt"></output></pre>

<pre id="jhtrt"></pre>

<pre id="jhtrt"></pre>
<pre id="jhtrt"><output id="jhtrt"><menuitem id="jhtrt"></menuitem></output></pre><pre id="jhtrt"></pre>
<p id="jhtrt"></p>
<pre id="jhtrt"><output id="jhtrt"></output></pre>

<pre id="jhtrt"></pre>
<noframes id="jhtrt"><pre id="jhtrt"><p id="jhtrt"></p></pre>

<p id="jhtrt"></p>

<pre id="jhtrt"></pre>

<output id="jhtrt"><delect id="jhtrt"><listing id="jhtrt"></listing></delect></output>

<pre id="jhtrt"><p id="jhtrt"></p></pre>

<pre id="jhtrt"></pre>

<p id="jhtrt"></p>

<p id="jhtrt"></p><pre id="jhtrt"><p id="jhtrt"></p></pre><p id="jhtrt"></p>

<p id="jhtrt"></p>
<p id="jhtrt"></p>
<p id="jhtrt"></p>
<pre id="jhtrt"></pre>
訂閱
糾錯
加入自媒體

遙遙領先!華為AI“盤古Chat”要來了

“先有華為后有天”

別看百度、阿里、360、科大訊飛等等一線互聯網大廠在AI潮里“上躥下跳”,都想勇立潮頭,掀風裹雨。

但是要問最期待哪家推出自研AI大模型,毫無疑問當屬菊廠——華為。

遙遙領先!華為AI“盤古Chat”要來了

近日,華為官宣將在7月7日舉行華為云開發者大會 (HDC.Cloud2023),這場開發者大會有一個眾人皆知的主題,就是全新的鴻蒙4.0。而除此之外,更令人期待的還有華為自己的“ChatGPT”。

盤古Chat,這次不“遙遙領先”了?

據可靠的“內部消息”,華為將在本次的開發者大會上正式推出華為AI大模型——“盤古Chat”。不過目前,華為官方未就此消息表態。但“無風不起浪”,現在業內小道消息的準確率越來越高,辟謠都當官宣聽。

遙遙領先!華為AI“盤古Chat”要來了

對標ChatGPT,是華為對“盤古Chat”的預期和目標,該大模型擁有千億級別參數,支持多模態能力,有望爭一爭國產最強大模型的寶座。

華為還是謙虛了。雖然對外稱盤古有千億級別參數,但是在一份華為公布的論文數據里,盤古 PanGu-Σ 大模型參數最多為 1.085 萬億。

而目前最強的GPT4擁有百萬億參數,ChatGPT(GPT3.5)參數量為1750億。國內大模型普遍參數范圍在1000億到10萬億之間,其中最高的是宣稱擁有那個10萬億+參數規模的阿里“通義千問”大模型。

雖說參數量不代表AI大模型的最終實力,畢竟谷歌最新的PaLM2模型有3400億參數規模,比前代5400億還少了,可無論是從速度還是能力上,都遠強于一代。(降本增效原來是有用的。。

但,參數規模還是初期階段評價一個大模型能力的關鍵標準。在這方面,盤古Chat雖沒有秉承華為一貫“遙遙領先”的架勢,可也說不上掉隊。

來自天眼查的消息,華為技術有限公司于近期申請注冊了兩枚“HUAWEINETGPT”商標,國際分類為科學儀器、網站服務,當前商標狀態為申請中。

遙遙領先!華為AI“盤古Chat”要來了

此外,華為已成功注冊多枚“盤古”“PANGU”商標。

搞大模型,華為“完全沒問題”

其實,盤古不算是華為的“秘密項目”。因為華為早就對外公開發布了盤古大模型,只是那時候還沒有ChatGPT這個“驚爆點”出現。

遙遙領先!華為AI“盤古Chat”要來了

最早,盤古于 2020 年 11 月在華為云內部立項成功。當時對于盤古大模型的定位,華為內部確立了三項最關鍵的核心設計原則:

一是模型要大,可以吸收海量數據;

二是網絡結構要強,能夠真正發揮出模型的性能;

三是要具有優秀的泛化能力,可以真正落地到各行各業的工作場景。

這之后,2021年4月華為云盤古大模型正式對外發布,后來又在2022年4月升級到2.0版本。

根據華為云高管的演講 PPT 信息,目前華為“盤古系列 AI 大模型”基礎層主要包括 NLP 大模型、CV 大模型、以及科學計算大模型等,上層則是與合作伙伴開發的華為行業大模型。

其中,即將現世的“盤古Chat”最核心的基礎——盤古NLP大模型,其使用的算法和訓練方式都是針對中文文本的,這可以盤古更能適應中文語境下的應用場景,也是業界首個千億參數的中文預訓練大模型。

遙遙領先!華為AI“盤古Chat”要來了

這就不得不提科大訊飛之前發布的星火大模型了。星火擁有1000億參數規模,和盤古在參數基礎上相類似?拼笥嶏w最近稱10月份,星火大模型將在中文能力上超越GPT。而它和盤古究竟孰強孰弱,到時肯定會番較量的。

目前,AI 大模型中的 NLP 大模型、CV 大模型以及科學計算大模型(氣象大模型)均已被標記為即將上線狀態。

華為對加入AI競賽,有自己的想法。華為昇騰計算業務CTO周斌曾經被問到“是否有信心承載ChatGPT這類規模的應用”的問題。

他回答說,“我們已經服務了國內幾十家合作伙伴的大模型,至少從底層技術軟硬件的規模上來講,華為不比ChatGPT少,ChatGPT所需的算力需求,我們已經經過了大規模驗證,是完全沒問題的!。

據悉,此次開發者大會上要發布的“盤古Chat”主要面向To B/G政企端客戶,但既然是開發者大會,內測資格肯定還是要發放的,具體功力如何,靜待發布。

而同期發布的鴻蒙4.0,將會和盤古大模型產生什么化學反應,也是業內予以高度關注的焦點。

“先有華為后有天”,這句調侃的話在坊間流傳甚廣,菊廠內部沒聽過是不可能的。而“盤古”作為古代神話中“開天辟地”的大神,被華為用以冠名自己的AI大模型,此間含義不言則明。

聲明: 本網站所刊載信息,不代表OFweek觀點?帽菊靖寮,務經書面授權。未經授權禁止轉載、摘編、復制、翻譯及建立鏡像,違者將依法追究法律責任。

發表評論

0條評論,0人參與

請輸入評論內容...

請輸入評論/評論長度6~500個字

您提交的評論過于頻繁,請輸入驗證碼繼續

暫無評論

暫無評論

人工智能 獵頭職位 更多
掃碼關注公眾號
OFweek人工智能網
獲取更多精彩內容
文章糾錯
x
*文字標題:
*糾錯內容:
聯系郵箱:
*驗 證 碼:

粵公網安備 44030502002758號

国产亚洲AV片在线观看播放,97超碰人人爱香蕉精品,超清中文乱码字幕在线观看

<p id="jhtrt"></p>

<p id="jhtrt"><delect id="jhtrt"><menuitem id="jhtrt"></menuitem></delect></p>

<p id="jhtrt"><output id="jhtrt"><menuitem id="jhtrt"></menuitem></output></p>
<pre id="jhtrt"><output id="jhtrt"><menuitem id="jhtrt"></menuitem></output></pre>

<pre id="jhtrt"><p id="jhtrt"></p></pre>
<p id="jhtrt"><output id="jhtrt"><menuitem id="jhtrt"></menuitem></output></p>

<pre id="jhtrt"><output id="jhtrt"><delect id="jhtrt"></delect></output></pre><noframes id="jhtrt">

<p id="jhtrt"></p>

<pre id="jhtrt"><output id="jhtrt"><delect id="jhtrt"></delect></output></pre>

<noframes id="jhtrt"><p id="jhtrt"></p>
<delect id="jhtrt"><delect id="jhtrt"><menuitem id="jhtrt"></menuitem></delect></delect>
<p id="jhtrt"></p>

<pre id="jhtrt"></pre>

<p id="jhtrt"><output id="jhtrt"><delect id="jhtrt"></delect></output></p>

<p id="jhtrt"></p>

<pre id="jhtrt"></pre>

<pre id="jhtrt"><output id="jhtrt"></output></pre>

<pre id="jhtrt"></pre>

<pre id="jhtrt"></pre>
<pre id="jhtrt"><output id="jhtrt"><menuitem id="jhtrt"></menuitem></output></pre><pre id="jhtrt"></pre>
<p id="jhtrt"></p>
<pre id="jhtrt"><output id="jhtrt"></output></pre>

<pre id="jhtrt"></pre>
<noframes id="jhtrt"><pre id="jhtrt"><p id="jhtrt"></p></pre>

<p id="jhtrt"></p>

<pre id="jhtrt"></pre>

<output id="jhtrt"><delect id="jhtrt"><listing id="jhtrt"></listing></delect></output>

<pre id="jhtrt"><p id="jhtrt"></p></pre>

<pre id="jhtrt"></pre>

<p id="jhtrt"></p>

<p id="jhtrt"></p><pre id="jhtrt"><p id="jhtrt"></p></pre><p id="jhtrt"></p>

<p id="jhtrt"></p>
<p id="jhtrt"></p>
<p id="jhtrt"></p>
<pre id="jhtrt"></pre>