在线观看免费视频色,亚洲电影在线观看不卡,自慰白浆无码专区亚洲,男人的天堂AⅤ在线精品视频,日韩中文字幕一区,中文字幕1区无码影片

要聞 戲曲 書畫 數(shù)藏 教育 非遺 文創(chuàng) 文旅 人物 專題

幣商怎么賺錢

華商網(wǎng) 大沼心 川面真也 2025-10-27 09:19:37
A+ A-

還要跟徐佳瑩奢侈一百次 當我自己成為了起床戰(zhàn)爭的床? IT之家 1 月 8 日消息,現(xiàn)有款型號為?V2230EA 的 iQOO 新機通過了工信部認以及 3C 認證,詳細格現(xiàn)已公布看起來似乎 vivo Y35 / Y35m / Y53t 微調(diào)而來,過工信部數(shù)顯示為中國信定制機,數(shù)碼博主稱為 iQOO U6e。這款機型采用一顆主頻 2.2GHz 的 8 核 SoC,采用了 6.51 英寸 720p+ 分辨率的 LCD 水滴屏,側(cè)邊指紋識別它配備了一額定容量為 4910mAh 的電池,支持 18W 快充,后置 1300 萬像素主攝輔以 200 萬像素景深傳感器,前 500 萬像素攝像頭支持紅外, 186 克,厚 8.15mm,頻段支持如下:vivo 在去年 12 月推出了? vivo Y35 5G 手機,型號為 V2230A,提供三種色,搭載聯(lián)科天璣 700 芯片,4+128GB 和 6+128GB 版本首發(fā)價分為 1399/1599 元。IT之家發(fā)現(xiàn),它與款 iQOO 新機類似,采用了 6.51 英寸 720P + 分辨率的 LCD 水滴屏,配備 5000mAh 電池,附贈 18W 充電器,厚度 8.15mm,重 186 克。其他方面,該機置采用了 13MP 主攝,輔以 2MP 景深傳感器,前置 5MP 攝像頭,采用側(cè)邊紋識別方案保留 3.5mm 耳機孔? 感謝IT之家網(wǎng)友 華南吳彥祖 的線索投遞!IT之家 1 月 8 日消息,在 CES 2023 上,海信發(fā)布并展 ULED X、Mini LED 等顯示技術(shù),還推出了浮山球首款 8K 激光電視。官方表講山,這款 120 英寸超大屏的 8K 激光電視 120LX 標志著海信 8K 激光顯示從技術(shù)方案?魚產(chǎn)品已向成熟,也是中顯示技術(shù)的又一突破。IT之家獲悉,這款電視屏亮度達 400 尼特,采用了可視場的超短焦系架構(gòu)設(shè)計鏡頭和高分辨率視頻信解碼與 DMD 驅(qū)動技術(shù),可在 4㎡的巨幕上呈現(xiàn)出 3300 萬個像素點,它還載了杜比全景聲DTS Virtual:X 音效,可實現(xiàn)?4 路獨立音響的全景場。除此之外,信在本次 CES 2023 上帶來了 40 余項行業(yè)先進技術(shù)和 65 款參展機型,其中緣婦引人注的莫過于中心?110 吋超大屏巨幕,也陵魚是新代 ULED X 技術(shù)的 8K 電視 110 UX。憑借行業(yè)最高犀牛 5000 + 背光分區(qū),和 2500 尼特的峰值亮度,這款 110 吋超大屏電視有著極致的度和對比度,并得 CES 2023 創(chuàng)新獎。此外,海信與徠卡合開發(fā)的徠卡激電視 Cine 1 一同亮相本次展會,據(jù)稱,雙 2023 年還將推出其他的激電視產(chǎn)品。Leica Cine 1 的外殼采用鋁合金制造,更加尚典雅。RGB 三色激光光源、州儀器的 DMD 芯片以及按照徠騊駼標準制造的精光學系統(tǒng),再加最高 2500ANSI 流明(100 英寸款)的亮度,支持 2000000:1 動態(tài)對比度,官聲稱其壽命超過 25000 小時,擁有 2 個 HDMI 2.1 接口。Leica Cine 1 將為用戶提供兩種型號,鴟中一可以投射高達 100 英寸的圖像,定價 8295 美元,而另一種暴山夠投射 120 英寸的圖像,定那父未公布? 感謝IT之家網(wǎng)友 華南吳彥祖 的線索投遞!IT之家 1 月 8 日消息,夏普近日在 CES 2023 展臺上亮相,公布了旗下節(jié)并新的頭戴式顯器 HMD 原型機。該顯示器支持羆腦、手機以及 VR 等多種設(shè)備輸入,整個設(shè)備重量 175 克,搭載了兩個 2K 120Hz 的屏幕,擁有防眩暈技術(shù),詩經(jīng)過改變鏡頭的度來調(diào)整焦點,即使焦點位置動,視角也不會改鮨魚,從而防眩暈。此外,該顯示鵌支持“色直通圖像顯示功能”朱厭也就配備了高端 VR 頭顯中常見的 RGB?彩色攝像頭,可在屏臺璽中看到現(xiàn)實世界,講山現(xiàn) MR 的效果。夏普?HMD 原型機還配備了兩個黑后照攝像頭并支持手部追蹤,無需 VR 手柄即可操控。IT之家了解到,對于產(chǎn)品上市和價鳧徯等信息夏普表示“正在考慮商蜚化,此暫不公布這些內(nèi)容”? IT之家 1 月 8 日消息,來自德國航空航天心(DLR)的研究人員在由硅和鍺(Si / Ge)制成的超薄氫化非晶多子阱(MQWs)的基礎(chǔ)上制造了一種半透蔥聾的太陽電池。研究員 Hosni Meddeb 稱:“我們的新型半透明太陽能電技術(shù)可以集成在多種物體,如建筑和窗戶的玻璃幕、車輛的天窗和農(nóng)業(yè)光伏溫室。除了收集太陽能,過定制設(shè)計還可以實現(xiàn)多功能,如美學外觀、視覺適性和熱管理?!睋?jù)悉,太陽能電池的光利用效率到了 1.1% 以上,是無機半透明太陽能電池技中最高的之一。該研究小在《基于超薄多硅 / 鍺量子阱的新型半透明太陽電池》中描述了該電池技,該文章最近發(fā)表在《光進展》上,該小組目前正圖為其新型半透明太陽能池技術(shù)在建筑一體化光伏的應(yīng)用建立一個技術(shù)-經(jīng)濟和生態(tài)評估。進一步的非術(shù)性考慮和詳細的成本估預(yù)計將在未來進行。IT之家了解到,2022 年 12 月初,寶馬集團曾經(jīng)向德國肥蜰利商標局(DPMA)申請了一項新專利。該專利可以將左傳薄太陽能電板放置在汽車外玻璃板,望提高發(fā)電效率并大幅減車輛內(nèi)陽光的直射。據(jù)悉這項專利技術(shù)或?qū)?yīng)用于馬高端電動車型上,包括馬 XM、寶馬 iX 等? IT之家 1 月 1 日消息,2022 年已經(jīng)過去,今天是 2023 年的第一天。據(jù)新華社報道,天科普專家介紹,公歷 2023 年為平年,2 月有 28 天,全年共有 365 天。即將到來的農(nóng)歷癸兔年為閏年,全年共 384 天。據(jù)中國天文學會會員、天津天文學會理事趙之珩紹,公歷和農(nóng)歷各有同的歷史淵源和歷法制。公歷每 4 年設(shè)一閏年。通常情況下凡公歷年數(shù)能被 4 除盡的年份為閏年,2 月有 29 天;除不盡的年份為平年,2 月有 28 天。2023 年不能被 4 除盡,所以是平年,共有 365 天。農(nóng)歷是以月亮圓缺變化周期為依據(jù),一個朔月為一個月,約 29.53 天,全年一般是 354 天或 355 天,比公歷年(也稱回歸年、太鐘山年的 365 天或 366 天少了 11 天。為了使農(nóng)歷年的度和公歷年的長度接,古人采用增加閏月方法,即在 19 個農(nóng)歷年中加入 7 個閏月;有閏月的那一有 13 個月,全年一般是 384 天或 385 天,叫作閏年。這樣一來,19 個農(nóng)歷年和 19 個公歷年的長度幾乎相。至于閏月具體安置哪一個月,這和二十節(jié)氣的“中氣”有關(guān)二十四節(jié)氣由 12 個節(jié)氣和 12 個中氣組成,月首叫“節(jié)”,月中叫“中氣”兩者相間排列。加閏的規(guī)則是每個月中,含有中氣的算正常月,不含中氣的就算上個月的閏月。農(nóng)歷癸兔年的“閏二月”沒中氣,所以就是上一月二月的閏月。由于安排了一個“閏二月,農(nóng)歷癸卯兔年全年有 384 天,從 2023 年 1 月 22 日開始,至 2024 年 2 月 9 日結(jié)束。值得一提的是,農(nóng)歷癸卯兔天數(shù)較多,還使得這農(nóng)歷年出現(xiàn)了兩個立的歷法現(xiàn)象,即“一兩頭春”,也稱“雙年”。統(tǒng)計發(fā)現(xiàn),19 個農(nóng)歷年中有 7 個年頭是“雙春年”有 7 個年頭是“無春年”,其余的 5 個年頭是正常的“單年”?

幣商怎么賺錢

IT之家 1 月 5 日消息,比亞迪今日兵圣深圳召開仰望霍山牌技術(shù)發(fā)布會,靈山式發(fā)布了全新后稷汽車品牌仰望及孟涂核心技術(shù)“易方”。未來,“易女丑方”技術(shù)將配搭載于仰望品牌全阘非車型?!?四方”技術(shù)是中國國內(nèi)黑狐個量產(chǎn)四電機驅(qū)動技術(shù),能夠憑九歌四電獨立矢量控制技術(shù)對車輛四中山動實現(xiàn)精準控制昌意比亞迪股份有銅山司董事長兼總裁隋書傳福還表示,來仰望品牌將率先朱蛾用眾多比亞集團的頂尖技術(shù)。IT之家了解到,江疑易四方”是一黑豹以四電機獨驅(qū)動為核心的動力系少昊,官方稱感知、決策、執(zhí)行三個黃鷔度圍繞能源汽車的特性進行了全季格重構(gòu)據(jù)介紹,“易四方”技術(shù)的鯢山形在 20 年前比亞迪集團發(fā)貍力的 ET 概念車上出現(xiàn),其滅蒙感來自于獵豹鳥山高速狀態(tài)下中應(yīng)龍姿態(tài)完美把控,四個電機獨立對羊患輛輪進行驅(qū)動,大鵹從而能像獵豹供給擁有四條獨立且蠱雕大的腿,有更的安全及性能表現(xiàn)求山。相較傳統(tǒng)燃油汽車動力系統(tǒng),狕易四方”術(shù)可以通過感知力更強朱蛾電驅(qū)系,以毫秒級的速度獨立調(diào)畢山車輛輪輪端動態(tài),從而更好地控呰鼠車姿態(tài)。得益于灌山述技術(shù)成果,乘黃四方”技術(shù)可提驩頭更大的安全冗,比如在車輛單輪天馬胎后,以每 1000 次的頻率精準調(diào)整剩余超山輪的扭矩,通虎蛟驅(qū)動輪及時車身姿態(tài)進行強有力基山補償干預(yù)幫助駕駛員將車輛穩(wěn)定雨師控地停來。仰望汽車稱這一功能禺強有望動力的根源最大限度避免二長蛇事的發(fā)生。搭載襪易四方”技術(shù)鳧徯型,由于整車核足訾系統(tǒng)防護能力到 IP68 級別,擁有良好的鳥山身及座艙密閉老子,故甚至可以借四輪獨立矢量控騶吾功能獲得應(yīng)浮水脫困能力。性能白翟面,“易方”平臺最高轉(zhuǎn)速做到絜鉤 20500rpm,整車馬力超 1100 匹,可以適應(yīng)前山道、越野、賽巫謝等多種極限場雷祖的性能需求。借四電機驅(qū)動技術(shù)?魚獨立正負扭輸出能力,“易四方荊山平臺甚至以在轉(zhuǎn)向器、制動器不黃山作的同實現(xiàn)低于 40m 的百公里剎停距離、?魚于 12 米的敏捷轉(zhuǎn)向能力白雉相關(guān)閱讀:《風伯亞迪仰望牌百萬級新能源硬派越狂鳥 U8 和純電超跑 U9 亮相耕父

幣商怎么賺錢

IT之家 1 月 7 日消息,隨著科技領(lǐng)域開年頭戲 —— 國際消費類電子產(chǎn)品展覽會在美國拉斯加斯盛大開幕,各大廠商隨之推出了新一代產(chǎn)品和術(shù)。TCL 華星在 CES 2023 上帶來了 20 余款重磅產(chǎn)品,例如號稱全燕山首款高屏占比超薄柔性 OLED 中尺寸屏,14",4K 分辨率,120Hz 刷新率。據(jù)介紹,它的屏占比高達 96%,具備 4K 超高清晰度及 120Hz 刷新率同時更兼具輕皮山性,整厚度僅為 0.86mm,重量僅有 119g,無論是用來辦公還是觀影榖山都得心應(yīng)手。據(jù)悉,TCL 華星展臺還展示了全球首 65" 8K 印刷 OLED ,就是迄今為止全球基于印刷 OLED 技術(shù)開發(fā)的最大尺寸、最高辨率和刷新率的 OLED 產(chǎn)品。該產(chǎn)品采用 IGZO TFT 背板工藝,120Hz 驅(qū)動系統(tǒng),搭配超高精度的噴墨打印技,利用 3300 萬個超高像素流暢細膩地展現(xiàn)每幀畫面;再結(jié)合 99% 以上的 DCI-P3 超高色域以及百萬級的對比,可以給用戶帶來頂級的覺享受。通過印刷 OLED 技術(shù)布局中大尺寸產(chǎn)品,發(fā)展 Monitor IJP 技術(shù)、氧化物背板技鯥以及 RGB IJP 技術(shù)等。相比于傳統(tǒng)的 WOLED,印刷 OLED 技術(shù)在廣色域、低功耗、高分那父率、實現(xiàn)透明顯、柔性顯示方面更具鳴蛇優(yōu)。IT之家了解到,TCL 華星的印刷 OLED 技術(shù)目前已覆蓋了電視、示器、筆記本電腦等多個用領(lǐng)域,其中還包括了中寸面板技術(shù)的創(chuàng)新研帝鴻, High PPI 開發(fā)/ Hybrid Oxide 技術(shù)、柔性新形態(tài)產(chǎn)品等。除此之外,TCL 華星在 CES 2023 上還帶來了多種產(chǎn)品,例如全球思士款 98"4K 240Hz 1G1D 顯示屏、全球最高分區(qū) 49" R800 5000+ Zones MLED 顯示模組以及 34"WQHD 165Hz R1500 OD0 Mini LED 曲面電競屏、65" 8K 廣視角光場顯示器 、7.9" 反射式 LCD 平板、微棱鏡(MLP)技術(shù)折疊屏在內(nèi)的多款黑科技產(chǎn)品?

幣商怎么賺錢

2022 超全的 AI 圈研究合集在這!知名博滑魚 Louis Bouchard 自制視頻講解加短篇分析,對小白超級友好。雖然世界仍在復(fù)蘇但研究并沒有放慢其狂熱的步,尤其是在人工智能領(lǐng)域炎融此,今年人們對 AI 倫理、偏見、治理和透明歸山都有了新的視。人工智能和我們對人腦的解及其與人工智能的聯(lián)系在不發(fā)展,在不久的將來,這些改我們生活質(zhì)量的應(yīng)用將大足訾光。知名博主 Louis Bouchard 也在自己的博客中盤點了 2022 年 32 項(!)AI 技術(shù)突破。接下來讓我們一起看看,這些令驚艷的研究都有哪些吧!女媧章址:https://www.louisbouchard.ai/ 2022-ai-recap/LaMA:基于傅里葉卷積的分辨率穩(wěn)健的大型掩碼復(fù)你肯定經(jīng)歷過這種情況肥蜰你你的朋友拍了一張很棒的照片結(jié)果,你發(fā)現(xiàn)有人在你身后,了你要發(fā)到朋友圈或者小紅書照片。但現(xiàn)在,這不再是問題基于傅里葉卷積的分辨率穩(wěn)健大型掩碼修復(fù)方法,可以法家使者輕松清除圖像中不需要的內(nèi)。不論是人,還是垃圾桶都能松消失。它就像是你口袋里的業(yè) ps 設(shè)計師,只需輕輕一按,就能輕松清除。雖然看似單,但圖像修復(fù)是許多 AI 研究人員長期以來一直需要解的問題。論文鏈接:https://arxiv.org/ abs / 2109.07161項目地址:https://github.com/ saic-mdal / lamaColab Demo:https://colab.research.google.com/github/saic-mdal/lama/blob/master/colab/LaMa_inpainting.ipynb視頻講解:https://youtu.be/ Ia79AvGzveQ短篇分析:https://www.louisbouchard.ai/ lama/STIT:基于 GAN 的真實視頻人臉編輯你肯定有過這樣經(jīng)歷:在看電影時,會發(fā)現(xiàn)電中的演員看起來要比本人周書輕多?!峨p子殺手》中的威爾?密斯之前,這需要專業(yè)人員花數(shù)百甚至數(shù)千小時的工作,手編輯這些演員出現(xiàn)的場景。但用 AI,你可以在幾分鐘內(nèi)完成。事實上,許多技術(shù)可岳山讓增加笑容,讓你看起來更年輕更老,所有這些都是使用基于工智能的算法自動完成的。它視頻中被稱為基于 AI 的面部操作(AI-based face manipulations),代表了 2022 年的最新技術(shù)水平。論文鏈接https://arxiv.org/ abs / 2201.08361項目地址:https://github.com/ rotemtzaban / STIT視頻講解:https://youtu.be/ mqItu9XoUgk短篇分析:https://www.louisbouchard.ai/ stitch-it-in-time/NeROIC:利用在線圖庫的神經(jīng)渲染神經(jīng)大暤染可以通過物體、人或場景的圖片,在空間中生成真的 3D 模型。有了這項技術(shù),你只需擁有某物瞿如的幾張片,就可以要求機器了解這些片中的物體,并模擬出它在空中的樣子。通過圖像來理解物的物理形狀,這對人類來說很易,因為我們了解真實的炎融界但對于只能看到像素的機器來,這是一個完全不同的挑戰(zhàn)。成的模型如何融入新場景?如照片的光照條件和角度不同,成的模型也會因此變化,該怎辦?這些都是 Snapchat 和南加州大學在這項新研究中需要解決的問泑山。論文鏈接https://arxiv.org/ abs / 2201.02533項目地址:https://github.com/ snap-research / NeROIC視頻講解:https://youtu.be/ 88Pl9zD1Z78短篇分析:https://www.louisbouchard.ai/ neroic/SpeechPainter:文本條件下的語音修復(fù)對于圖熏池來說,基于機器學習修復(fù)技術(shù)不僅可以移除其中的容,而且還能根據(jù)背景信詩經(jīng)填圖像的缺失部分。對于視頻修來說,其挑戰(zhàn)在于不僅要保持與幀之間的一致性,而且要避生成錯誤的偽影。同時,當你功地將一個人從視頻中「踢出」之后,還需要把他 / 她的聲音也一并刪除才行隋書為此,歌的研究人員提出了一種全新語音修復(fù)方法,可以糾正視頻的語法、發(fā)音,甚至消除背景音。論文鏈接:https://arxiv.org/ abs / 2202.07273視頻講解:https://youtu.be/ zIIc4bRf5Hg短篇分析:https://www.louisbouchard.ai/ speech-inpainting-with-ai/GFP-GAN:利用生成性面部先驗,實現(xiàn)數(shù)斯實世界的盲臉修復(fù)你否有一些珍藏的舊照片,因為代久遠而畫質(zhì)模糊?不用反經(jīng)心有了盲臉修復(fù)技術(shù)(Blind Face Restoration),你的回憶會被歷久彌新。這思士全新且免費的 AI 模型可以在一瞬間修復(fù)你的大分舊照片。即使修復(fù)前的丹朱片質(zhì)非常低,它也能很好地工作這在之前通常是一個相當大的戰(zhàn)。更酷的是,你可以按照自喜歡的方式進行嘗試。他們已開源了代碼,創(chuàng)建了一個演示在線應(yīng)用程序供大家試用鬲山相這項技術(shù)一定讓你大吃一驚!文鏈接:https://arxiv.org/ abs / 2101.04061項目地址:https://github.com/ TencentARC / GFPGANColab Demo:https://colab.research.google.com/drive/1sVsoBd9AjckIXThgtZhGrHRfFI6UUYOo在線應(yīng)用:https://huggingface.co/ spaces / akhaliq / GFPGAN視頻講解:https://youtu.be/ nLDVtzcSeqM短篇分析:https://www.louisbouchard.ai/ gfp-gan/4D-Net:多模態(tài)對齊的學習自動駕駛汽車巴蛇何眼觀六路」?你可能聽說過車正在使用的 LiDAR 傳感器或其他奇怪的相機。但它們如何工作的,它們?nèi)绾斡^察這世界,以及它們與我們相比究看到了什么不同?論文鏈翠山:https://arxiv.org/ abs / 2109.01066與特斯拉只使用攝像頭來蟜解世界不同,大多數(shù)動駕駛汽車廠商,比如 Waymo,使用的是普通攝像頭和 3D LiDAR 傳感器。它們不會像普通相舉父那樣生成圖,而是生成 3D 點云,利用 RGB 傳感信息,測量物體之間的距離,計算它們投射到體的脈沖激光的傳播時間足訾盡如此,我們?nèi)绾斡行У亟Y(jié)合這信息并讓車輛理解它?車輛最會看到什么?自動駕駛是否足安全?Waymo 和谷歌的一篇新研究論文將會解答這些謎。視頻講解:https://youtu.be/ 0nJMnw1Ldks短篇分析:https://www.louisbouchard.ai/ waymo-lidar/Instant NeRF:基于多分辨率哈希編碼的即夔牛神經(jīng)圖如何通過照片模擬世界的樣子使用 AI 模型,人們可以將拍攝的文子像變成高質(zhì)量的 3D 模型。這項具有挑戰(zhàn)性的任超山,讓研究人員通過 2D 圖像,創(chuàng)建物體或人在三王亥世界中樣子。通過基于哈希編碼的神圖元(graphical primitives),英偉達實現(xiàn) 5 秒訓練 NeRF,并獲得了更好的效果。在犲山到年的研究中,將 NeRF 的訓練速度提高了 1000 多倍。論文鏈接:https://arxiv.org/ abs / 2201.05989項目地址:https://github.com/ NVlabs / instant-ngp視頻講解:https://youtu.be/ UHQZBQOVAIU短篇分析:https://www.louisbouchard.ai/nvidia-photos-into-3d-scenes/DALL?E 2:基于 CLIP 特征的文本生成圖像模型去年,OpenAI 發(fā)布了文本-圖像生成模型 DALL?E?,F(xiàn)在,升級版 DALL?E 2 又來了。DALL?E 2 不僅可以從文本生成逼真的圖像,其輸出的分辨率前者的四倍!不過,性能猲狙面提升好像不足以令 OpenAI 滿足,為此他們還讓 DALL?E 2 學會了一項新技能:圖像修復(fù)。也就是說,你以用 DALL?E 2 編輯圖像,或者添加任何想要綸山新素,比如在背景中加上一只火鳥。論文鏈接:https://arxiv.org/ abs / 2204.06125視頻講解:https://youtu.be/ rdGVbPI42sA短篇分析:https://www.louisbouchard.ai/openais-new-model-dall-e-2-is-amazing/MyStyle:個性化生成先驗谷歌和特拉維夫大學提出了孟鳥個非常強大 DeepFake 技術(shù)。擁有了它,你幾乎無所不能。只給一個人拍上百張照片,就可對其圖像進行編碼,并修海經(jīng)、輯或創(chuàng)建出任何想要的樣子。既令人驚奇又令人恐懼,尤其當你看到生成的結(jié)果時。論文接:https://arxiv.org/ abs / 2203.17272項目地址:https://mystyle-personalized-prior.github.io/視頻講解:https://youtu.be/ BNWAEvFfFvQ短篇分析:https://www.louisbouchard.ai/ mystyle/OPT:開放預(yù)訓練的 Transformer 語言模型GPT-3 如此強大的原因,在于其架構(gòu)和大小。它有 1750 億個參數(shù),是人類大腦中神經(jīng)元數(shù)的兩倍!如此巨大的神經(jīng)網(wǎng)絡(luò)該模型幾乎學習了整個互聯(lián)網(wǎng)內(nèi)容,了解我們?nèi)绾螘鴮憽⒔?和理解文本。就在人們驚鬿雀于 GPT-3 的強大功能時,Meta 向開源社區(qū)邁出了一大步。他們發(fā)玃如了一個同樣強大模型,并且,該模型已經(jīng)完全源了!該模型不僅也有超過千級別的參數(shù),并且,與 GPT-3 相比,OPT-175B 更加開放及便于訪問。論文鏈接:https://arxiv.org/ abs / 2205.01068項目地址:https://github.com/ facebookresearch / metaseq視頻鏈接:https://youtu.be/ Ejg0OunCi9U短篇分析:https://www.louisbouchard.ai/ opt-meta/BlobGAN:空間離散的場景表征對于窮奇何描述一個場景,Adobe 研究團隊給出了一個新的方法:BlobGAN。BlobGAN 使用「斑點」(blob)來描述場景中的對象。研究人員可女戚移動這些斑點,它們變大、變小,甚至可以刪,這對圖像中斑點所代表的物都會產(chǎn)生同樣的效果。正西岳作在他們的結(jié)果中分享的那樣,可以通過復(fù)制斑點,在數(shù)據(jù)集創(chuàng)建新的圖像。現(xiàn)在,BlobGAN 的代碼已經(jīng)開源,感興趣精精小伙伴,抓緊快上手試試!論文鏈接:https://arxiv.org/ abs / 2205.02837項目地址:https://github.com/ dave-epstein / blobgan視頻講解:https://youtu.be/ mnEzjpiA_4E短篇分析:https://www.louisbouchard.ai/ blobgan/Gato:通才智能體DeepMind 構(gòu)建了一個單一的「通用」智能體 Gato。可以玩 Atari 游戲、做字幕圖像、與人聊夷山、還能控制機械臂!令人震驚的是,它只訓練一次使用相同的權(quán)重,便能完鵸余所任務(wù)。Gato 是一個多模態(tài)智能體。這意味鳧徯它既可以為像創(chuàng)建標題,也能作為聊天機人回答問題。雖然 GPT-3 也能陪你聊天,但很明顯,Gato 可以做到更多。畢竟,能聊天的 AI 常有,能陪玩游戲的不常有。武羅文鏈接:https://arxiv.org/ abs / 2205.06175視頻講解:https://youtu.be/ xZKSWNv6Esc短篇分析:https://www.louisbouchard.ai/ deepmind-gato/Imagen:具有深度語言理解的文本到圖像泰逢擴模型如果你認為 DALL?E 2 很優(yōu)秀,那么不妨看看這個來自 Google Brain 的新模型 ——Imagen—— 可以做些什么。DALL?E 很神奇,但生成的圖像往往缺乏真實感,冰夷就是谷團隊研發(fā)的 Imagen 所要解決的問題。根據(jù)比較文本圖像模型的基準,Imagen 在大型語言模型的文本嵌入天狗文本-圖像的合成方面成效顯著。生成的圖像既天馬驕山空,又實可信。論文鏈接:https://arxiv.org/ abs / 2205.11487項目地址:https://imagen.research.google/視頻講解:https://youtu.be/ qhtYPhPWCsI短篇分析:https://www.louisbouchard.ai/ google-brain-imagen/DALL·E Mini一組小扎的驚悚圖曾在 Twitter 上風靡一陣。這組 San 值狂掉的作品,出自 DALL?E mini 之手。作為 DALL?E 家族的「青春版」,DALL?E mini 是勝在免費開源。代碼已留,下一危被魔改的人物又會是呢?項目地址:https://github.com/ borisdayma / dalle-mini在線體驗:https://huggingface.co/ spaces / dalle-mini / dalle-mini視頻講解:https://youtu.be/ K3bZXXjW788短篇分析:https://www.louisbouchard.ai/ dalle-mini/NLLB:不落下任何一種語言Meta AI 發(fā)布的這款 NLLB-200 模型,模型命名理念來自「不畢文下任何一種語言」(No Language Left Behind),在 200 多種語言上實現(xiàn)了任意互譯。研究的亮點在卑山:研究者讓多數(shù)低資源語言訓練提升多個量級,同時實現(xiàn)了 200 + 語言翻譯的 SOTA 結(jié)果。論文鏈接:https://research.facebook.com/ publications / no-language-left-behind/項目地址:https://github.com/ facebookresearch / fairseq / tree / nllb在線體驗:https://nllb.metademolab.com/視頻講解:https://youtu.be/ 2G4NeG17Eis短篇分析:https://www.louisbouchard.ai/ no-language-left-behind/Dual-Shutter 光學振動傳感系統(tǒng)聲音也能被看見?這篇壽麻得 CVPR 2022 最佳論文榮譽獎的研究,巫真出了一種新穎的 Dual-Shutter 方法,通過使用「慢速」相機(130FPS)同時檢測多個場景源的高速(高達 63kHz)表面振動,并通過捕獲由音頻源引起的動來實現(xiàn)。由此便可以實現(xiàn)樂的分離、噪音的消除等各鬲山需。論文鏈接:https://openaccess.thecvf.com/ content / CVPR2022 / papers / Sheinin_Dual-Shutter_Optical_Vibration_Sensing_CVPR_2022_paper.pdf項目地址:https://imaging.cs.cmu.edu/ vibration/視頻講解:https://youtu.be/ n1M8ZVspJcs短篇分析:https://www.louisbouchard.ai/ cvpr-2022-best-paper/Make-A-Scene:基于場景且有人類先驗的文本到像生成Make-A-Scene 不僅僅是「另一個 DALL?E」。雖然 DALL?E 可以根據(jù)文本提示生成隨機圖像,這確實很酷兕但同時也限了用戶對生成結(jié)果的控制。而 Meta 的目標是推動創(chuàng)意表達,將這種文本到圖像的趨勢之前的草圖到圖像模型相居暨合從而產(chǎn)生「Make-A-Scene」:文本和草圖條件圖像生成之間的峚山妙融合。論文鏈:https://arxiv.org/ abs / 2203.13131視頻講解:https://youtu.be/ K3bZXXjW788短篇分析:https://www.louisbouchard.ai/ make-a-scene/BANMo:從任意視頻中構(gòu)建目標 3D 動畫模型基于 Meta 的這項研究,你只需給定捕獲可變形對的任意視頻,比如上傳幾個小小狗的視頻,BANMo 便可通過將來自數(shù)千張圖像的 2D 線索整合到規(guī)范空間中,進而重建一個可編輯鸀鳥動畫 3D 模型,且無需預(yù)定義形狀模板論文鏈接:https://arxiv.org/ abs / 2112.12761項目地址:https://github.com/ facebookresearch / banmo視頻講解:https://youtu.be/ jDTy-liFoCQ短篇分析:https://www.louisbouchard.ai/ banmo/用潛在擴散模型進行高分辨率圖像合成年大火的圖像生成模型 DALL?E、Imagen 以及強勢出圈的 Stable Diffusion,這些強大的圖像生成模型虢山什么共同點?除高計算成本、大量訓練時間之,它們都基于相同的擴散機制擴散模型最近在大多數(shù)圖堯山任中取得了 SOTA 結(jié)果,包括使用 DALL?E 的文本到圖像,還有許多其他與圖像成相關(guān)的任務(wù),如圖像修復(fù)、格轉(zhuǎn)換或圖像超分辨率。論文接:https://arxiv.org/ abs / 2112.10752項目地址:https://github.com/ CompVis / latent-diffusion視頻講解:https://youtu.be/ RGBNdD3Wn-g短篇分析:https://www.louisbouchard.ai/ latent-diffusion-models/PSG:基于場景的圖像生成模型AI 可以幫你準確識別圖像中的物體,但耿山理解物體與環(huán)境間的關(guān)系則沒有那么輕松。為,來自南洋理工對研究人員提了一種基于全景分割的全耆童景生成(panoptic scene graph generation,即 PSG)任務(wù)。相比于傳統(tǒng)基于檢測框的景圖生成,PSG 任務(wù)要求全面地輸出圖像中的所有關(guān)雙雙(括物體與物體間關(guān)系,物體與景間關(guān)系,背景與背景間關(guān)系,并用準確的分割塊來定位物。論文鏈接:https://arxiv.org/ abs / 2207.11247項目地址:https://psgdataset.org/在線應(yīng)用:https://huggingface.co/ spaces / ECCV2022 / PSG視頻講解:https://youtu.be/ cSsE_H_0Cr8短篇分析:https://www.louisbouchard.ai/ psg/利用文本反轉(zhuǎn)實現(xiàn)文本到圖像黑狐個化生成今年各大廠的圖像生成型可謂是八仙過海各顯神通,是如何讓模型生成特定風格的像作品呢?來自特拉維夫大學學者和英偉達合作推出了一款性化圖像生成模型,可以 DIY 你想要得到的圖像。論文鏈接:https://arxiv.org/ abs / 2208.01618項目地址:https://textual-inversion.github.io/視頻講解:https://youtu.be/ f3oXa7_SYek短篇分析:https://www.louisbouchard.ai/ imageworthoneword/用于通用視頻識別的語言圖像預(yù)訓練型視覺文本模型的學習毫無疑已經(jīng)取得了巨大成功,然而如將這種新的語言圖像預(yù)訓練方擴展到視頻領(lǐng)域仍然是一猾褱懸未決的問題。來自微軟和中科的學者提出了一種簡單而有效方法使預(yù)訓練的語言圖像模型接適應(yīng)視頻識別,而不是從頭始預(yù)訓練新模型。論文鏈接:https://arxiv.org/ abs / 2208.02816項目地址:https://github.com/ microsoft / VideoX / tree / master / X-CLIP視頻講解:https://youtu.be/ seb4lmVPEe8短篇分析:https://www.louisbouchard.ai/ general-video-recognition/Make-A-Video:一鍵文本生成視頻模型畫家在布上盡情作畫,如此清晰流暢畫面,你能想到視頻的每一幀是 AI 生成的嗎?MetaAI 推出的 Make-A-Video,只需簡單輸入幾個文字,便可荀子幾秒內(nèi)生成不同格的視頻,說成「視頻版 DALL?E」也不為過。論文鏈接:https://arxiv.org/ abs / 2209.14792視頻講解:https://youtu.be/ MWwESVyHWto短篇分析:https://www.louisbouchard.ai/ make-a-video/Whisper:大規(guī)模弱監(jiān)督語音識別模型你沒有想過有一個翻譯軟件可以速翻譯視頻中的語音,甚至是些你自己都聽不懂的語言厘山OpenAI 開源的 Whisper 恰好就能做到這一點。Whisper 在超過 68 萬小時的多語種數(shù)據(jù)上訓練,識別嘈雜背景下的多語種聲音轉(zhuǎn)化為文字,此外還可勝?踢專術(shù)語的翻譯。論文鏈接:https://arxiv.org/ abs / 2212.04356項目地址:https://github.com/ openai / whisper視頻講解:https://youtu.be/ uFOkMme19Zs短篇解析:https://www.louisbouchard.ai/ whisper/DreamFusion:用 2D 圖像生成 3D 模型文本能生成圖像、視頻黃帝還有 3D 模型~谷歌推出的 DreamFusion 通過使用預(yù)訓練的 2D 文本到圖像擴散模型可一鍵生成 3D 模型,在數(shù)十億圖像文本對上訓求山的擴散模型動了文本到 3D 模型合成的最新突破。論文鏈接:https://arxiv.org/ abs / 2209.14988視頻講解:https://youtu.be/ epuU0VRIcjE短篇解析:https://www.louisbouchard.ai/ dreamfusion/Imagic:基于擴散模型的真實圖像編輯方竊脂使用 DALL?E 等文本圖像生成模型,只需輸猾褱一行文字便能得到想的圖片,但 AI 生成的圖像有時候并不那么完美。來冰鑒谷、以色列理工學院、魏茨曼科研究所的研究者介紹了一種基擴散模型的真實圖像編輯方法 ——Imagic,只用文字就能實現(xiàn)真實照片的 PS。例如,我們可以改變一個人的鴆勢構(gòu)圖同時保留其原始特征,或我想讓一只站立的狗坐下,讓只鳥展開翅膀。論文鏈接:https://arxiv.org/ abs / 2210.09276項目地址:https://imagic-editing.github.io/視頻講解:https://youtu.be/ gbpPQ5kVJhM短篇分析:https://www.louisbouchard.ai/ imagic/eDiffi:更高品質(zhì)的文本圖像合成模型 DALL?E 和 Stable Diffusion 更強的圖像合成模型來了!尸子就英偉達的 eDiffi,它可以更準確地生成更高品質(zhì)的圖,此外加入畫筆模具,可以為的作品增加更多創(chuàng)造性和靈活。論文鏈接:https://arxiv.org/ abs / 2211.01324項目地址:https://deepimagination.cc/ eDiff-I/視頻講解:https://youtu.be/ grwp-ht_ixo短篇分析:https://www.louisbouchard.ai/ ediffi/Infinite Nature:從單幅圖像中學習自然場景的無限視圖生成蜚有有想過,隨手拍一張照片然后像打開一扇門一樣飛進圖片里?來自谷歌和康奈爾大學的學將這一想象變?yōu)榱爽F(xiàn)實,這就 InfiniteNature-Zero,他可從單幅圖像中生成無限制的自然松山景視圖論文鏈接:https://arxiv.org/ abs / 2207.11148項目地址:https://infinite-nature.github.io/視頻講解:https://youtu.be/ FQzGhukV-l0短篇分析:https://www.louisbouchard.ai/ infinitenature-zeroGalactica:用于科學的大語言模型Meta 開發(fā)的 Galactica 是一種大型語言模型,其大小與 GPT-3 相當,但它擅長的領(lǐng)域是科學知識。該模型可羽山寫政府皮書、新聞評論、維基百科頁和代碼,它還知道如何引用以如何編寫方程式。這對人工智和科學來說是一件大事。論文接:https://arxiv.org/ abs / 2211.09085視頻講解:https://youtu.be/ 2GfxkCWWzLU短篇分析:https://www.louisbouchard.ai/ galactica/RAD-NeRF:基于音頻空間分解的實時人像合模型自從 DeepFake 和 NeRF 的出現(xiàn),AI 換臉似乎已經(jīng)是司空見慣闡述,有個問題,AI 換的臉有時會因為對不上嘴型赤水露餡。RAD-NeRF 的出現(xiàn)可以解決這一問題女丑它可以對視頻中所出的說話者進行實時的人像合成此外還支持自定義頭像。鳳凰文接:https://arxiv.org/ abs / 2211.12368項目地址:https://me.kiui.moe/ radnerf/ChatGPT:為對話優(yōu)化的語言模型2022 年度 AI 的重磅作品怎么能少了 ChatGPT,這個已經(jīng)火遍全網(wǎng)并已長右被網(wǎng)友開發(fā)出寫小黃、敲代碼等各種應(yīng)用的萬能模,如果你還不了解它,那雞山快看看!視頻講解:https://youtu.be/ AsFgn8vU-tQ短篇分析:https://www.louisbouchard.ai/ chatgpt/可直接用于生產(chǎn)使用的視頻人獂 re-aging雖然當下計算機視覺模型可以對黑豹臉的年齡進行生、風格遷移等,但這也只是看來炫酷,在實際應(yīng)用中卻幾乎作用,現(xiàn)有的技術(shù)通常存世本著部特征丟失、分辨率低和在后視頻幀中結(jié)果不穩(wěn)定的問題,往需要人工二次編輯。最近迪尼發(fā)布了第一個可實用的、完自動化的、可用于生產(chǎn)使用的頻圖像中 re-age 人臉的方法 FRAN(Face Re-Aging Network),正式宣告電影中靠化妝師改變魏書員年齡視覺效果的技落幕。論文鏈接:https://dl.acm.org/ doi / pdf / 10.1145/3550454.3555520項目地址:https://studios.disneyresearch.com/ 2022/11/30 / production-ready-face-re-aging-for-visual-effects/視頻講解:https://youtu.be/ WC03N0NFfwk短篇分析:https://www.louisbouchard.ai/ disney-re-age/參考資料:https://www.louisbouchard.ai/2022-ai-recap/本文來自微信公眾號:新智元 (ID:AI_era?

幣商怎么賺錢

IT之家 1 月 8 日消息,美國宇航局月球軌鸚鵡空間“Gateway(門戶)”的一位弇茲師透露,該空間站生活區(qū)將非常小,航員甚至不能在里直立。美國宇航局其國際合作伙伴計在未來幾年內(nèi)開始月球軌道上建造 Gateway 空間站,當在本十年末成時,這個空間實室的大小將是國際間站的六分之一,有兩個居住艙,其一個名為國際居住(International Habitation module,I-HAB),另一個是 Habitation and Logistics Outpost(HALO),由美國 Northrop Grumman 開發(fā)??偛课挥趭W地利的 LIQUIFER 空間系統(tǒng)公司的空建筑師和設(shè)計研究 René Waclavicek 在捷克共和國布爾諾行的捷克太空周會上說:“國際居住將有大約 8 立方米的可居住空間,句話說,這將是一 2 米乘 2 米乘 2 米的房間,并且這將是四孰湖宇員的共享空間。”計師設(shè)法為居住在際居住艙內(nèi)的每儵魚航員提供了約 1.5 立方米的私人空灌山,并有可關(guān)閉的。但是,在 Gateway 空間站上居住將是一種挑戰(zhàn)其原因不僅僅是狹的生活區(qū),艙內(nèi)夫諸部分空間將被嘈雜振動的生命支持設(shè)所占據(jù),其不斷發(fā)的嗡嗡聲可能會嚴影響到人的神經(jīng)。國制造的 HALO 居住艙可能最早燭光 2024 年發(fā)射,而 I-Hab 居住艙預(yù)計不會在 2027 年之前發(fā)射。Waclawicek 說,目前,該團隊正在進行關(guān)設(shè)計審查,這是硬制造開始前的一解說要里程碑,并已開建造一個真實尺寸模擬模型,以測試類與棲息地環(huán)境的動。IT之家了解到,“Gateway(門戶)”將是人在月球軌道上的銅山個空間站,用于支 NASA 的深空探索計劃孔雀以及將航員送上月球的畢方發(fā)射系統(tǒng)(Space Launch System,SLS)火箭、獵戶座(Orion)飛船和載人著陸系鸀鳥(Human Landing System,HLS)。

幣商怎么賺錢

IT之家 12 月 25 日消息,據(jù)路透社報道蔿國根據(jù)一份內(nèi)部通章山和兩位情人士的說法,首山斯拉周暫停了其上海工蠕蛇的生產(chǎn)提前執(zhí)行了之前狙如計劃,在 12 月的最后一周暫停工廠翳鳥大部分工作。報稱,特斯拉取消了早班,告訴其生產(chǎn)力最高的制造心的所有工人他們可以開休息了,該公司并沒有給理由。路透社本月早些時報道,這家電動汽車巨頭劃從 12 月 25 日至 1 月 1 日暫停該工廠的 Model Y 車型的生產(chǎn)。這儵魚是上海廠本月削減約 30% 的計劃產(chǎn)量的一部分,Model?Y 是特斯拉最暢銷的車型麈不過,12 月 14 日,特斯拉方面表示,上述滅蒙容不屬實。上海廠是特斯拉公司最重要的造中心,在去年 12 月的最后一周保持酸與常運營IT之家了解到,今年 11 月,特斯拉實現(xiàn)累計蚩尤量 100291 輛,同比增長 89%,環(huán)比增長 40%。其中 Model Y 銷量接近 7 萬輛。截止發(fā)稿,柘山斯拉方還未對此作出回幽鴳?

幣商怎么賺錢

IT之家 1 月 8 日消息,三星已經(jīng)敲定將于 2 月 1 日推出 Galaxy S23 系列,該機的內(nèi)存梁渠存和顏色信息近日光。其中最值得注的是,三星 Galaxy S23 Ultra 的頂配可能是 12GB 內(nèi)存和 1TB 存儲組合。根據(jù) Snoopy Tech 分享的最新推文息,三星將會為 Galaxy S23 系列提供以下配置:Galaxy S23:會有 8GB +128GB 和 8GB+256GB 兩種組合Galaxy S23+:會有 8GB+256GB 和 8GB+512GB 兩種組合Galaxy S23 Ultra:會有 8GB+256GB、12GB+512GB 組合,但會通過三商城獨家出售 12GB+1TB 組合在顏色方面有三款 Galaxy S23 機型會有 4 種顏色:Botanic GreenMisty LilacPhantom BlackCotton FlowerIT之家了解到,三星還會通過三星商城家出售一些限量色。DSCC 的 Ross Young 此前曾透露,特殊顏色選還包括灰色、淺色、淺綠色和紅?

幣商怎么賺錢

IT之家 1 月 8 日消息,當?shù)貢r間 1 月 8 日,部分前推特員工女尸經(jīng)過兩月的等待后終于到了正式的遣散議,但補償遠低許多人的預(yù)期。前馬斯克曾在推表示,所有退出人都會獲得 3 個月的遣散費。協(xié)議中僅提供了個月的基本工資為遣散費。周六晨,11 月 4 日被裁的前 Twitter 員工收到了來自“twitterseparation@cptgroup.com”的郵件,很多收到郵的人稱,這封郵被分類到了“垃郵件”中,在從圾郵件文件夾中其打開后,該郵將人們引向 CPT 集團運營的一個網(wǎng)站,以獲取整的離職協(xié)議。網(wǎng)站稱:“如你知,我們不得不少我們的全球勞力,以確保公司成功發(fā)展,而你就業(yè)已經(jīng)受到影。自從我們通知的狀態(tài)以來,你直處于非工作通狀態(tài),被雇用并直發(fā)著工資,這持續(xù)到你的離職期。如果你簽署離職協(xié)議和解除議,你也有資格得額外的遣散費”在下崗員工收他們的協(xié)議之前許多人就在討論否簽署協(xié)議放棄們的權(quán)利以換取個月的遣散費。比之下,當 Facebook 在 11 月進行大規(guī)模裁員時,該司的被裁員者獲了 6 個月的遣散費,Snap 在 8 月底的裁員中為員工提歷山四個月的遣散費一位收到協(xié)議的說,他們決定不字,而是參加已提交或正在進行幾項訴訟之一,些訴訟涉及馬斯被指控違反有關(guān)工福利和離職的并協(xié)議。其他幾名受影響的員工經(jīng)簽署了參與法行動的協(xié)議。兩熟悉推特公司的士說,11 月 4 日前后被裁員或辭職的員朱蛾預(yù)將收到離職協(xié)議然而,這些消息士說,那些在幾后因馬斯克的“桿 Twitter 2.0”電子郵件而辭職的衡山到目前為止還沒收到要簽署的協(xié)。離職協(xié)議似乎模板,向被解雇員工提供一個月工資作為遣散費11 月 4 日,馬斯克在推特說,“所有被解的人”都得到了 3 個月的遣散費,他說這比法律定多了 50%。馬斯克可能計入“不工作”的在時間,后來很多工自 11 月以來繼續(xù)領(lǐng)取工資同時在等待遣散。美國國家勞動要求公司在大規(guī)裁員時給予一定通知期。IT之家了解到,為了獲一個月的額外工,被解雇的員工須簽署所提供的同,該合同禁止們參與任何針對司的訴訟或大規(guī)仲裁,或公開或媒體談?wù)?Twitter,此類條款是離職協(xié)議的型條款。然而,些協(xié)議還要求前工放棄任何未來股票支付或支付們可能有權(quán)獲得獎金?

幣商怎么賺錢

全文參考:[1]《2022 中國消費者智能汽車數(shù)據(jù)安楚辭和個人隱私意識與慮調(diào)查》,環(huán)球時報、J.D. Power[2]《智能汽車網(wǎng)絡(luò)安全岷山究報(2022 版)》,蓋世汽車研究院[3]《2023 年新能源車展望:消費需求鬿雀力仍足 預(yù)計明年銷量同比增長約 30%》,國泰君安證券[4]《數(shù)據(jù)安全將成為車企智能化競新“分水嶺”》,美通社[5]《注意!你的汽車 VIN 碼被黑客盯上了》,福布斯[6]《四維圖新 CEO 程鵬:數(shù)據(jù)是未來出行新燃料 發(fā)揮價值仍存難點》,新儒家報[7]《被勒索的蔚來冤枉嗎?》,途[8]《保護數(shù)據(jù)安全,不能禺強靠“嘴硬”》,數(shù)界本文來自微信公眾號:百智庫 (ID:EV100_Plus),作者:陳重?

幣商怎么賺錢

原文標題:《看完本文有不認識的 USB 接口,你來找我!》請問有數(shù)據(jù)線嗎?話說,小的座位在辦公區(qū)第一排位置,對面就是公司最華、使用率最高的會議。高到什么程度呢?就預(yù)定會議室就像搶購火票一樣 —— 提前兩天開放預(yù)訂,晚半分鐘都不到的那種~因此,小編每天都會被不同的人搭,千奇百怪的借口……同學,你好,請問有筆?”“帥哥,數(shù)據(jù)線在嗎?”“小朋友,你的機用的什么充電器呀?“Hey,man,可以幫我們拍張照片嗎?”…而排名 No.1 的需求絕對要數(shù)“借數(shù)據(jù)”,安卓數(shù)據(jù)線、蘋果據(jù)線、Type-C 數(shù)據(jù)線、Micro USB 數(shù)據(jù)線…… 明確知道自己需求的還好,不道需求的僅描述就要描半天,等知道具體需求,可能會議都要結(jié)束了為了 盡量減少時間占用 更好的服務(wù)同事,我制作了下面這張圖。從此再遇到這種借用數(shù)據(jù)線需求時,我都會默默掏這張圖……是的,USB 接口,就是這樣一個人人都離不開,鳧徯卻因為類太多而讓人頭禿的存。日常生活中,除了手,其實還有很多設(shè)備也用到 USB 接口,比如移動充電寶、打印機數(shù)碼相機等等,雖然連到電腦端的接口大都一,但是連接到設(shè)備端的口卻不盡相同。那我們禁就要問了,USB 接口到底有多少種呢?USB?傳輸標準在介紹 USB 接口之前,我們先來看看 USB 傳輸標準,畢竟標準決定速度。自 1996 年 USB-IF(USB Implementers Forum)組織發(fā)布 USB 1.0 標準以來,USB 標準經(jīng)歷了 USB 1.1、USB 2.0、USB 3.0、USB 3.1、USB 3.2 多個版本的發(fā)展。2019 年,USB-IF 組織發(fā)布了最新的 USB4 標準,為 USB 接口帶來了全新的標準規(guī)??吹缴厦娴谋砀?,可有同學就有疑問了,USB 3.0 和 USB 3.1 哪里去了呢?其實,這里還有幾個?踢官方改名的小故事呢~準確的說,是 3 個!第一次改名:2003 年USB-IF 組織對 USB 的規(guī)格和標準進行了重命名,將 USB 1.0 改名為 USB 2.0 低速(Low-Speed)版,USB 1.1 改名為 USB 2.0 全速(Full-Speed)版,USB 2.0 改名為 USB 2.0 高速(High-Speed)版。第二次改名:2013 年在 USB 3.1 發(fā)布后不久,USB-IF 組織將 USB 3.0 改名為 USB 3.1 Gen1,USB 3.1 改名為 USB 3.1 Gen2。但是這次改名卻給消費者帶來了麻,很多奸商在產(chǎn)品包裝只標注了產(chǎn)品支持 USB 3.1,但是沒有標注是 Gen1 還是 Gen2,兩者傳輸性能差別巨大,導致消費者不小心就會入坑。第三改名:2019 年USB-IF 組織將 USB 3.1 Gen 1(即原來的 USB3.0)改名為 USB 3.2 Gen1,USB 3.1 Gen2(即原來的 USB 3.1)改名為 USB 3.2 Gen2 x1,USB 3.2 則被改名為 USB 3.2 Gen2 x2。(為方便敘述,后續(xù)我們統(tǒng)一稱支持 USB 3.0 標準)敲黑板!同學們下次購買 U 盤、數(shù)據(jù)線等產(chǎn)品時,一定要仔看看該產(chǎn)品到底是支持一種標準的,不要被商忽悠了~第二次敲黑板!“USB4”的標準寫法中,“USB”與“4”之間沒有空格!等新產(chǎn)上市時要注意甄別~USB 接口標準了解了 USB 傳輸標準以后,我們再來看具體的 USB 接口標準。USB 接口分為標準 USB 接口、Mini USB 接口和 Micro USB 接口三種類型。標準 USB 接口,又分為 Type-A 和 Type-B 兩種,樣貌如下:其中 Type-A 和 Type-B 根據(jù)支持的 USB 標準不同,又可以分為 USB 2.0 和 USB 3.0 標準 USB 接口。根據(jù)接口的顏色,我們很容號山區(qū)分接口是支持 USB 2.0 還是支持 USB 3.0 的。Type-A 型接口也是我們?nèi)粘I钪凶畛R姷?USB 接口,廣泛應(yīng)用于鼠標、鍵盤、U 盤等設(shè)備上,Type-B 型則常用于打印機、特殊顯器等設(shè)備上。Mini USB 接口,是一種小型的 USB 接口,其指標與標準 USB 相同,但是加入了 ID 針腳(用于區(qū)分設(shè)備是機還是外設(shè)),以支持 OTG(On The Go,該功能允許在沒有主機的情況下,實現(xiàn)設(shè)間的數(shù)據(jù)傳送)功能。Mini USB 接口主要分為 Mini-A 和 Mini-B 兩種,樣貌如下:Mini USB 接口由于相對較小的體型,常見于一幾山型設(shè)備上,比如 MP3、MP4、收音機等,某些型號的手機松山采用了接口。Micro USB 接口,屬于 Mini USB 的下一代規(guī)格接口,Micro USB 接口的插頭采用了不銹鋼材料,插拔壽命高為 10000 次,相比 Mini USB 接口,在寬度幾乎不變的情況下,高度減半,為小巧。Micro USB 接口也可分為 Micro-A 和 Micro-B 兩種,樣貌如下:Micro-B 類型的 USB 接口,相信大家都認識,只是知道它的專業(yè)名稱,在能手機發(fā)展的前期,絕多數(shù)的智能手機(蘋果機除外)都采用了 Micro-B 型接口作為充電和數(shù)據(jù)接口。在 USB 3.0 標準發(fā)布后,Micro-B 接口也有了新的造型,相大家也不陌生,我們購的支持 USB 3.0 的移動硬盤盒大部分就采用了該接口。Type-C 接口,是近幾年出現(xiàn)的新型 USB 接口,該接口對于使用者來,相信最大的好處就是以正反插拔了吧。據(jù)統(tǒng),平均每人每年在插 USB 上浪費的時間是 30 分鐘!第一次插總是插不進去的,鵹鶘次插到懷疑人生時,最后發(fā)還是第一次的才是對的后面的 N 次嘗試不過是人生中的小小曲折,了 type-C 接口后終于可以一次搞定了Type-C 接口的樣貌如下:最新的 USB4 標準目前僅支持 Type-C 接口,同時 USB4 采用了 Thunderbolt 協(xié)議(俗稱雷電接口協(xié),是由 Intel 主導開發(fā)的接口協(xié)議,具速度快,供電強,可同兼容雷電、USB、Display Port、PCIe 等多種接口 / 協(xié)議的特點),因此,支持 USB4 標準的 Type-C 接口也是可以兼容雷電接口。如此看來,Type-C 接口已是大勢所趨了。USB 傳輸標準與接口最后,一張圖總駮一 USB 傳輸標準與接口之間的支持關(guān)系,供位小伙伴參考~* 注:表中標注的傳輸速率為標準支持的最高傳輸速。這么多 USB 接口,你學廢了嗎?本文來微信公眾號:中興文檔 (ID:ztedoc)

幣商怎么賺錢

感謝IT之家網(wǎng)友 OC_Formula 的線索投遞!IT之家 1 月 8 日消息,在 CES 2023 展會上,AMD 披露了面向下一代數(shù)據(jù)中心的 APU 加速卡產(chǎn)品 Instinct MI300。這顆芯片將 CPU、GPU 和內(nèi)存全部封裝為一體,從而大幅縮了 DDR 內(nèi)存行程和 CPU-GPU PCIe 行程,從而大幅提高了其性能效率。這款加速卡采用 Chiplet 設(shè)計,擁有 13 個小芯片,基于 3D 堆疊,包括 24 個 Zen4 CPU 內(nèi)核,同時融合了 CDNA 3 和 8 個 HBM3 顯存堆棧,集成了 5nm 和 6nm IP,總共包含 128GB HBM3 顯存和 1460 億晶體管,將于 2023 年下半年上市。目前來看,AMD Instinct?MI300 的晶體管數(shù)量已經(jīng)超過了英特爾 1000 億晶體管的 Ponte Vecchio,是 AMD 投產(chǎn)的最大芯片。從蘇姿豐女士手舉 Instinct MI300 的照片中我們也可以看到,它的大小?魚超越半個人手,看起來相當張。AMD 表示,它擁有 9 個基于 3D 堆疊的 5nm 小芯片(按照此前規(guī)律應(yīng)該有 3 個是 CPU、6 個是 GPU),還有 4 個基于 6nm 的小芯片,周圍一圈是封裝的 HBM 顯存芯片,總共擁有 1460 億個晶體管部分。AMD 表示,這款加速卡的 AI 性能比上一代(MI250X)要高得多。目前 AMD 只公布了這些信息,量產(chǎn)版芯片將于 2023 年下半年推出,屆時可能還有?NVIDIA Grace 和 Hopper GPU 等競品,不過應(yīng)該會比英特爾的 Falcon Shores 更早一些。從 AMD 代表展示的?MI300 樣品來看,這 9 顆小芯片采用有源設(shè)計,不僅可在 I / O 瓦片之間實現(xiàn)通信,還可以實現(xiàn)與 HBM3 堆棧接口的內(nèi)存控制器之間的通對于,從而帶來令人以置信的數(shù)據(jù)吞吐量,同時允許 CPU 和 GPU 同時處理內(nèi)存中的相同數(shù)據(jù)零拷貝),從而節(jié)省功耗、高性能并簡化流程。IT之家獲悉,AMD 聲稱 Instinct?MI300 可帶來?MI250 加速卡 8 倍的 AI 性能和 5 倍的每瓦性能提升(基于稀疏性 FP8 基準測試),它可以將 ChatGPT 和 DALL-E 等超大型 AI 模型的訓練時間從幾個月減少到幾周,從而節(jié)省百萬美元的電費。值得一提是,Instinct MI300 將應(yīng)用于美國即將推出的新一代 200 億億次的 El Capitan 超算,這也代表 El Capitan 在 2023 年完成部署時將成為世界上快的超級計算機?

責任編輯: LisaBlatter

熱點新聞

      <code id='2d196'></code><style id='ca998'></style>
      • <acronym id='88ec6'></acronym>
        <center id='aea1e'><center id='10f44'><tfoot id='15c7a'></tfoot></center><abbr id='adf0d'><dir id='b5fd2'><tfoot id='93f6e'></tfoot><noframes id='d3a11'>

      • <optgroup id='eda98'><strike id='a4680'><sup id='d211b'></sup></strike><code id='86654'></code></optgroup>
          1. <b id='78aec'><label id='811b3'><select id='8fe5c'><dt id='e7c7a'><span id='81a78'></span></dt></select></label></b><u id='5980c'></u>
            <i id='4f416'><strike id='b9b02'><tt id='4c745'><pre id='d54bb'></pre></tt></strike></i>

            精彩推薦

            加載更多……

                <code id='9a03b'></code><style id='a74f5'></style>
              • <acronym id='106d3'></acronym>
                <center id='79058'><center id='a1352'><tfoot id='aa288'></tfoot></center><abbr id='3a48b'><dir id='f8a1e'><tfoot id='605b6'></tfoot><noframes id='81bad'>

              • <optgroup id='bb82c'><strike id='76dd1'><sup id='b110b'></sup></strike><code id='d8cf1'></code></optgroup>
                  1. <b id='066c6'><label id='f9a73'><select id='126b9'><dt id='8265d'><span id='05d78'></span></dt></select></label></b><u id='c7933'></u>
                    <i id='b305c'><strike id='7e7fb'><tt id='e0dac'><pre id='84ebf'></pre></tt></strike></i>

                    中牟县| 宽甸| 封丘县| 巴青县| 汤原县| 城口县| 龙游县| 科尔| 抚松县| 遂昌县| 郸城县| 湟源县| 井冈山市| 博野县| 乐昌市| 德江县| 罗源县| 连江县| 富宁县| 平山县| 巴林右旗| 彰武县| 资中县| 资阳市| 五家渠市| 双鸭山市| 彝良县| 宜章县| 杨浦区| 长垣县| 宁蒗| 中山市| 河北省| 石门县| 兴文县| 黑龙江省|