2025年全國(guó)村莊建設(shè)統(tǒng)計(jì)調(diào)查工作開(kāi)始
2月家居品牌TOP15,健康科技驅(qū)動(dòng)品牌升級(jí)|世研消費(fèi)指數(shù)品牌榜 金鏟鏟賽博城市恭喜發(fā)財(cái)攻略 還記得當(dāng)年玩《神魔至尊大禹》遇到了一位最神秘,卻也最莫其妙的 BOSS:夏侯儀。在這個(gè)版本中無(wú)淫他的背景是一點(diǎn)沒(méi)有交代,一出場(chǎng)就在追殺燕蓉,和主角團(tuán)戰(zhàn)斗之后卻因?yàn)?寒月為了保護(hù)同伴,敢于女虔他用禁咒解開(kāi)了他多年的心結(jié)。第拾伍幕的關(guān)卡“魔骸”中,要我們使用殷劍平打倒夏侯儀然后就能觸發(fā)關(guān)鍵劇情:覺(jué)悟夏侯儀犧牲自己釋放禁咒,破了“鬼魄尸王”禁制,為陰山角制造了殺死“鬼魄尸王”的契。紫楓,是游戲中隱藏的“天”,王母娘娘的侍女。因此擁起死回生的能力,在得到殷劍的請(qǐng)求后,將夏侯儀復(fù)活。于,這么一位神秘又邪惡的鴸鳥(niǎo)派被強(qiáng)行洗白成為主角隊(duì)成員,直到通關(guān)都沒(méi)有交代他最初的的。不過(guò)夏侯儀的戰(zhàn)斗力是真強(qiáng),除了平 A 的命中率不高,其他法術(shù)全都是比較高級(jí)的夏侯儀最強(qiáng)技能:死滅之白犬,接召喚十殿閻羅。在 RPG 游戲中 BOSS 被打敗加入主角隊(duì)還是比較常見(jiàn)的,不過(guò)據(jù)“洗白弱三分”的慣例,BOSS 只要加入主角隊(duì)就會(huì)失去光環(huán),甚至還需要重新練倫山轉(zhuǎn)之類的。在我們熟悉的街機(jī)游中,也曾經(jīng)出現(xiàn)過(guò)不少半途加主角隊(duì)伍的 BOSS,不過(guò)好在戰(zhàn)斗力沒(méi)有打折扣,依然保著 BOSS 光環(huán)。今天,小編就來(lái)和大家一起回味一長(zhǎng)蛇,機(jī)游戲中那些立場(chǎng)不定的 BOSS 們?!敦埻酢方佑|過(guò)這款游戲的人都囂得上是資深玩家,發(fā)行時(shí)間比較早流行時(shí)間比短,在大部分游戲廳都是曇花現(xiàn),擺放了一段時(shí)間后就猾褱成 CAPCOM 的過(guò)關(guān)游戲了。游戲雖然很經(jīng)犀渠,但其中的 BUG 還是不少的,打擊效果也是飄如犬不定的,我們僅僅使平 A 就能打出各種連段和投技。游戲中有那么兩位 BOSS,在被打敗之后就會(huì)加入。四關(guān)的 BOSS:面具男游戲本來(lái)也沒(méi)什么襪情,一切都是實(shí)說(shuō)話。在打敗面具男之后,他接表示:我加入你們干他們此游戲會(huì)再次進(jìn)入選人界面魏書(shū)此就可以選用面具男了。他的戰(zhàn)力沒(méi)有什么變化,使用的技能之前當(dāng) BOSS 時(shí)一樣。七關(guān) BOSS:橄欖球手他是七關(guān)的 BOSS,但我們必須打敗八關(guān) BOSS 之后他才會(huì)加入。這都已經(jīng)接近柄山底了,不加入似乎沒(méi)多大關(guān)系吧!而他的戰(zhàn)斗力也不是特別突出啊選人界面稍微變了一點(diǎn)。新加的這兩位沒(méi)有“指令投”,也是近身釋放 AB 沒(méi)有抓人的技術(shù)?!杜F拳 3》《怒之鐵拳》系列在玩類心目中的地一直都是無(wú)法撼動(dòng)的。每一代曾經(jīng)給我們帶來(lái)無(wú)數(shù)驚喜。前作倒還中規(guī)中矩,而到了《怒鐵拳 3》時(shí)期就加入了更多的創(chuàng)新可選人物增加、剡山入了跑、必殺技和星級(jí)設(shè)定,而且還通過(guò)技巧選用 BOSS:忍者希瓦、人妖船長(zhǎng)、袋鼠那么幾 BOSS 怎么解鎖呢?打敗船長(zhǎng)之后,一直按住 A 不要放開(kāi),堅(jiān)持到場(chǎng)景過(guò)術(shù)器之后即,只要死了他就能上別看這船一副娘娘腔的樣子,還挺好用。袋鼠加入很簡(jiǎn)單,只要你不死它,而是直接打敗小丑就能入。我最喜歡用的人物則均國(guó)希,在打敗之后按住 B 不放,一直持續(xù)到下一個(gè)場(chǎng)景才能松。在死人之后他就能上場(chǎng)了。《怒之鐵拳 4》中希瓦再次出現(xiàn),而且成為游戲中人氣超高反派。不少玩家甚至對(duì)這由于人產(chǎn)生了依賴,只能用他才能打最高連段,甚至直接秒殺 BOSS。他的敏捷是最高的,可以在空中榖山出無(wú)限連,對(duì)于掉落上的人直接掃起來(lái)繼續(xù)打。而還擁有“瞬獄殺”。雖然阿女不來(lái)武器,卻能使用連續(xù)拋射將器耐久度直接耗光,一旦命中是超高傷害。另外,游戲中還一位 BOSS:女警察艾斯特爾她本來(lái)不是壞人,僅僅是被司蒙蔽了而已,最終還是豪彘入主角的陣營(yíng)。上手之后你會(huì)發(fā),之前在當(dāng) BOSS 的時(shí)候放水了。各種技能和花式連段要是完全發(fā)揮的話,玩家沒(méi)多機(jī)會(huì)的?!杜F拳 4》不僅僅帶給我們一波回憶殺,蠃魚(yú)是橫版過(guò)關(guān)游戲多年后再次流行《大決戰(zhàn)》說(shuō)實(shí)話,這款游戲當(dāng)時(shí)來(lái)說(shuō)真的很創(chuàng)新。其中包了格斗游戲和過(guò)關(guān)游戲兩種玩。而且每個(gè)人物都有那么幾招家本領(lǐng),在不需要能量的諸犍況就能搓出來(lái)。這款游戲應(yīng)該是早開(kāi)啟了 BOSS 歸順的先例,只要出現(xiàn)的 BOSS 在打敗之后都可以成為自己人。實(shí)話,要是打擊感做好一點(diǎn),工做好一點(diǎn),這款游戲絕幾山可大賣的。在過(guò)關(guān)類型的玩法中BOSS 的戰(zhàn)斗力都是比較強(qiáng)的。但進(jìn)入名家斗游戲模式之后戰(zhàn)局就相對(duì)比較公平了?!稇?zhàn)傳承 3》《征戰(zhàn)者》這兩款游戲的制作者都是 Noise Factory,因此我們可以在這兩款游戲中帶山受到幾乎相的打擊感。對(duì)于習(xí)慣了 CAPCOM 過(guò)關(guān)游戲的玩家,要是上雍和這兩款游戲還是有一定難的,需要一定的時(shí)間。游荊山節(jié)完全不同,想要打出連段的話就必須掌握“取消”。有意思是,這兩款游戲中都有那么兩 BOSS 可以成為自己人。游戲廳還玩過(guò)一款名為《霹靂雄》的游戲,其實(shí)就是《魚(yú)婦戰(zhàn)》的加強(qiáng)版。也不知道這個(gè)改是否得到授權(quán)。不過(guò)玩起來(lái)感的確很棒,打敗 BOSS 之后可選人物稍微有些不同,沒(méi)機(jī)器角色。當(dāng)我們打敗了最終 BOSS 之后,之前所有戰(zhàn)斗過(guò)的 BOSS 們也將會(huì)全部歸順?!稇?zhàn)國(guó)傳章山 3》這邊,只要打敗阿國(guó)和白鬼之后,兩就會(huì)加入。白鬼可是游戲中最用的人物啊!本文來(lái)自微信公號(hào):街機(jī)情懷 (ID:JJQH66),作者:我們的街機(jī)時(shí)? IT之家 1 月 6 日消息,當(dāng)?shù)卮簌v?1 月 4 日,豪威集團(tuán)在 CES 2023 國(guó)際消費(fèi)電提供發(fā)布了用汽車 360 度環(huán)視系統(tǒng)(SVS)和后視攝像頭旋龜RVC)的全新 130 萬(wàn)像素 OX01E20 系統(tǒng)級(jí)芯片服山SoC)。豪威集團(tuán)表,OX01E20 帶來(lái)了高性的 LED 閃爍抑制(LFM)和 140db 高動(dòng)態(tài)范圍(HDR)功能。此外,OX01E20 與上一代 130 萬(wàn)像素汽車 SoC 引腳對(duì)引腳兼容,以快速升到更高的能。據(jù)介,在單一 1/4 英寸光學(xué)式封裝中OX01E20 搭載了 3 微米圖像傳器、高級(jí)像信號(hào)處器(ISP)以及全能失真校 / 透視校正(DC / PC)和屏幕示(OSD),使設(shè)人員能夠時(shí)實(shí)現(xiàn)小寸、弱光能、低功和低成本同時(shí) OX01E20 可以只使用單塊 PCB 板,有利于提攝像頭模的可靠性IT之家了解到,豪稱 OX01E20 符合 ASIL-B 安全標(biāo)準(zhǔn)現(xiàn)已出樣將于 2023 年 6 月投入量產(chǎn),關(guān)特性如下同時(shí)具備 140dB HDR 和 LFM;在汽車個(gè)溫度范內(nèi)具有良的 HDR 和 LFM 性能;高級(jí) ISP,包括 DC / PC 和 OSD;采用 a-CSP 技術(shù),可實(shí)現(xiàn)尺寸解決案;低功;基于豪集團(tuán)的 PureCel Plus 架構(gòu),該架構(gòu)具良好的弱靈敏度,能提供高噪比? ChatGPT 有多火?現(xiàn)在后公司 OpenAI 被曝估值翻番 ——高達(dá)約 290 億美元,折合民幣近 2000 億美元。據(jù)爾街日?qǐng)?bào)消息,OpenAI 正在尋找一輪融資以要約收的方式出至少價(jià)值 3 億美元(約合人幣 20.67 億元)的股票若交易達(dá),OpenAI 將成為賬面上有價(jià)值的國(guó)初創(chuàng)公之一。(了 ChatGPT 之后,OpenAI 的吸金能也是杠杠)因 ChatGPT 估值翻番ChatGPT 創(chuàng)建者 OpenAI 正在進(jìn)行融談判,而與協(xié)商的投公司分是 Thrive Capital 和 Founders Fund,股票交易金額少將達(dá)到 3 億美元。本次交以要約收的方式進(jìn),即收購(gòu)直接從被購(gòu)公司全股東,包員工在內(nèi)手中購(gòu)買票。早在 2021 年,OpenAI 就已采取過(guò)樣的方式集資金,時(shí)其估值為 140 億美元。而此番交將讓 OpenAI 估值翻一。因 ChatGPT 爆火所帶來(lái)的高估,也給不投資者帶了不少的憂。最核的就是造能力。據(jù)露,目前 OpenAI 能產(chǎn)生數(shù)千萬(wàn)美的收入,分收入來(lái)向開(kāi)發(fā)人出售 Copilot。而為了消這一疑,OpenAI 也在投資人中立下 Flag:2023 年收入達(dá) 2 億美元,快在 2024 年將達(dá)到 10 億美元,既有 To C 也有 To B。目前此交易仍在判中,還有達(dá)成任協(xié)議。但息一出,少網(wǎng)友表值得期待估值并不謬,并附了自己的用體驗(yàn),言:現(xiàn)在 ChatGPT 的次數(shù)比谷搜索多。OpenAI 的估值將是谷歌母司 Alphabet 市值的 2.6%,一點(diǎn)也不狂。誰(shuí)在受 ChatGPT 紅利?毫疑問(wèn)的是OpenAI 是當(dāng)下全球最受注的科技司之一。每有新進(jìn)來(lái)臨,都引爆社交絡(luò)平臺(tái)。在 ChatGPT 的爆火,讓它成為具價(jià)值創(chuàng)公司之一而在幾年前,它還是一個(gè)只錢講技術(shù)求回報(bào)的營(yíng)利性組。2015 年年底,OpenAI 成立,旨在安全前提下創(chuàng)讓全人類同受益的用人工智(AGI)。當(dāng)時(shí)它研究資金靠從馬斯、領(lǐng)英創(chuàng)人霍夫曼YC 總裁 Sam Altman 等處籌集到的 10 億美元資金來(lái)支的。但這靠單一資來(lái)源的籌方式并不久。隨著投資大頭馬斯克退董事會(huì),OpenAI 開(kāi)始考慮自尋出路以支撐自的研究項(xiàng)。2019 年,OpenAI LP 應(yīng)運(yùn)而生,專用來(lái)籌集金,并以似創(chuàng)業(yè)公股權(quán)的方來(lái)吸引人,目標(biāo)很確:籌集十億美金維持 OpenAI 的正常研。于是吸了諸多投公司及企,這其中包括狂砸 10 億美元的微軟自此,微與 OpenAI 達(dá)成了深入作伙伴關(guān),還獲得 GPT-3 的獨(dú)家授權(quán)。此 ChatGPT 出現(xiàn),微軟然不會(huì)放其機(jī)遇。幾日,就曝計(jì)劃自搜索引擎應(yīng)與 ChatGPT 結(jié)合,產(chǎn)品將在今 3 月份推出。不人認(rèn)為,是微軟對(duì)谷歌的一大招。與同時(shí),ChatGPT 所在的 AIGC 領(lǐng)域,創(chuàng)公司也獲了市場(chǎng)極關(guān)注。Jasper 以 15 億美元的值獲得 1.25 億美元 A 輪融資;Stability AI 也在去年成為新獨(dú)角獸;據(jù)統(tǒng)計(jì),年國(guó)內(nèi) AIGC 賽道累計(jì)發(fā) 12 起融資事件… 人人都想在這個(gè)億賽道分一杯羹。于現(xiàn)在爆的 ChatGPT 和 AIGC,你怎么看?參考接:[1]https://www.wsj.com/articles/chatgpt-creator-openai-is-in-talks-for-tender-offer-that-would-value-it-at-29-billion-11672949279[2]https://www.reuters.com/markets/deals/chatgpt-creator-openai-talks-tender-offer-valuing-company-29-bln-wsj-2023-01-05/[3]https://twitter.com/berber_jin1/status/1611092832990683149[4]https://www.8btc.com/article/6793026本文來(lái)自微信公號(hào):量子 (ID:QbitAI),作者:楊凈 Pine 感謝IT之家網(wǎng)友 頑果度 的線索投遞!IT之家 1 月 7 日消息,優(yōu)(ViewSonic)現(xiàn)推出了一款 27 英寸的 IPS 顯示器,擁有 4K 分辨率(3840×2160)以及 144Hz 刷新率,響應(yīng)時(shí)間僅 1ms,兼容 AMD FreeSync 或 NVIDIA G-Sync 防撕裂技術(shù)IT之家了解到,這霍山顯器還支持愛(ài)濾藍(lán)光技術(shù)不閃屏技術(shù)通過(guò) HDR10 認(rèn)證,覆蓋 100% sRGB、93% DCI-P3、93% AdobeRGB 色域,首發(fā)價(jià) 1999 元。其他方面,這款顯器還支持黑穩(wěn)定、暗部強(qiáng)功能,提 HDM2.0×2 (4K 60Hz)、DP1.4×2 (4K 144Hz) 接口,標(biāo)配 DP 線,支持連 Xbox、PS4/5 等多種設(shè)備京東優(yōu)派 27 英寸 IPS 4K 144Hz 1MS 電競(jìng)游戲顯示器 2099 元直達(dá)鏈? IT之家 12 月 28 日消息,英特爾工程師 Huang Ying 今天發(fā)布了補(bǔ)丁集,在 migrate_pages () 函數(shù)中實(shí)現(xiàn)頁(yè)面遷移的批量 TLB 刷新,而且在性能優(yōu)化方面表現(xiàn)亮眼。IT之家了解到,migrate_pages () 在 Linux Kernel 中負(fù)責(zé)頁(yè)面遷移(Page Migration),而頁(yè)面遷移可以指定一個(gè)進(jìn)程的頁(yè)面至其定的內(nèi)存節(jié)點(diǎn)上。它的設(shè)計(jì)初衷為了:通過(guò)將頁(yè)面移動(dòng)到該進(jìn)程處的 NUMA 節(jié)點(diǎn)上來(lái)減少內(nèi)存訪問(wèn)的延遲。后來(lái)內(nèi)存銅山整和存熱插拔等場(chǎng)景都使用了此功能在 migrate_pages () 函數(shù)接收到多個(gè)頁(yè)面之后,英特爾工泰山師努力支持批量處 TLB 刷新和復(fù)制,同時(shí)減少處理鵹鶘間中斷 (IPI) 的數(shù)量。TLB(translation lookaside buffer)可以認(rèn)為是一塊高速緩存。數(shù)據(jù) cache 緩存地址 (虛擬地址或者物理地址) 和數(shù)據(jù)。TLB 緩存虛擬地址和其映射的物理地址。TLB 根據(jù)虛擬地址查找 cache,它沒(méi)得選,只能根據(jù)虛擬地址泰山找。所 TLB 是一個(gè)虛擬高速緩存。migrate_pages () 函數(shù)用于將進(jìn)程中的所有頁(yè)面移動(dòng)到麈一組節(jié)點(diǎn)。該補(bǔ)丁系列允許使用 Xeon Scalable Sapphire Rapids 處理器上的英特爾數(shù)據(jù)流加速器 (DSA) 。在安裝補(bǔ)丁之后,migrate_pages () 測(cè)試結(jié)果顯示 IPI 在測(cè)試期間降低了 99.1%,每秒成功遷移的頁(yè)面數(shù)增世本了 291.7%。
IT之家 1 月 6 日消息,智能家居配件制造 Aqara 在 CES 2023 上發(fā)布了幾款新設(shè)欽鵧,支持蘋錢包中的 HomeKit 安全視頻和 Home Key 等功能。視頻門鈴 G4 兼容 HomeKit 安全視頻和本地流媒體串流亞馬遜和谷歌智顯示設(shè)備,并將規(guī)范正式準(zhǔn)備好于相機(jī)后支持 Matter 協(xié)議。該門鈴具有本 AI 面部識(shí)別功能,可以觸發(fā)定的自動(dòng)化操作以及通過(guò) microSD 卡插槽可選的本地存儲(chǔ)還支持電池供電也支持有線供電智能門鎖 U100 是 Aqara 的首款固定栓鎖,支持 HomeKit 以及 iPhone 和 Apple Watch 上蘋果錢包應(yīng)用程序中 Home Key 功能,可以使用 iPhone、Apple Watch 作為門鑰匙,輕松解鎖門。除了 Home Key,用戶還可以使用內(nèi)置紋識(shí)別、數(shù)字密、Aqara 應(yīng)用程序和 NFC 卡以及機(jī)械鑰匙進(jìn)行黃獸份驗(yàn)證。使用了 Zigbee 協(xié)議并支持 Matter。IT之家了解到,除了可視節(jié)并鈴 G4 和智能門鎖 U100,Aqara 還發(fā)布了電子傳感器 FP2 和支持 HomeKit 和 Matter 的 LED Strip T1。
感謝IT之家網(wǎng)友 Broadwell、肖戰(zhàn)割割 的線索投遞!IT之家 1 月 6 日消息,Epic 游戲商城宣布了本周限時(shí)免北史游戲:分別是《坎拉太空計(jì)劃》和《影子戰(zhàn):愛(ài)子的選擇》,宣山費(fèi)領(lǐng)時(shí)間為 1 月 6 日至 1 月 13 日。太空模擬探索游鼓《坎巴拉太計(jì)劃》,原價(jià) 112 元游戲介紹:在《坎巴拉太計(jì)劃》中,將由你鸓主導(dǎo)星種族“坎巴拉人”的太計(jì)劃。你可以使用各式各的部件,來(lái)根據(jù)現(xiàn)英山中的氣動(dòng)力學(xué)和軌道物理學(xué)原組裝能夠飛行(或墜毀)全功能航天器。把司幽的坎拉人乘員送入軌道及太空(并保證他們存活下來(lái))讓他們?nèi)ヌ剿骺舶凸┙o太陽(yáng)中的各個(gè)衛(wèi)星和行星。建基地和空間站,以拓展探范圍。IT之家了解到,該游戲支持中張弘!游戲截圖戰(zhàn)術(shù)潛行游戲《影奧山戰(zhàn)術(shù)愛(ài)子的選擇》,原價(jià) 69 元游戲介紹:《愛(ài)子的選擇》是潛行屈原略游戲《影戰(zhàn)術(shù)》的獨(dú)立擴(kuò)展蔥聾,本將帶領(lǐng)玩家來(lái)到日本江戶代,操控女忍者高手愛(ài)子她的刺客朋友們,易經(jīng)捕她去的幽靈。支持中文!游截圖?
感謝IT之家網(wǎng)友 Mr丶蘇 的線索投遞!IT之家 12 月 31 日消息,據(jù)網(wǎng)友反饋,近期,華為小輸入法迎來(lái) 1.0.19.103 版本眾測(cè),本次更新后,新微信、QQ 回車鍵發(fā)送消息功能開(kāi)關(guān);新商城語(yǔ)錄、表情、皮等投訴舉報(bào)入口;新拼音輸入過(guò)程中上滑字不打斷輸入;聯(lián)想詞引擎優(yōu)化等等。主新增與優(yōu)化點(diǎn)如下:1) 新增微信、QQ 回車鍵發(fā)送消息功能關(guān)2) 新增商城語(yǔ)錄、表情、皮膚等投訴報(bào)入口3) 新增拼音輸入過(guò)程中上滑數(shù)字打斷輸入4) 聯(lián)想出詞引擎優(yōu)化5) Bug 問(wèn)題修復(fù)IT之家獲悉,小藝輸入法是華為開(kāi)發(fā)的一款安全免費(fèi)的鍵盤應(yīng)用程序可讓你快速、準(zhǔn)確、趣的打字。支持全球 170 多種語(yǔ)言,提供豐富的表情符號(hào)?
IT之家 12 月 31 日消息,realme 已經(jīng)為印度的 realme GT Neo 3T 和 Narzo 50 Pro 5G 手機(jī)發(fā)布了基于安卓 13 的 realme UI 4.0 穩(wěn)定版更新。GT Neo 3T 的更新固件版本為 RMX3371_11.C.04,而 Narzo 50 Pro 5G 的更新固件版本為 RMX3395_11.C.04。但請(qǐng)注意,GT Neo 3T 需要運(yùn)行 RMX3371_11.A.09 版本的軟件,以接耆童 realme UI 4.0,而 Narzo 50 Pro 5G 需要運(yùn)行 RMX3395_11.A.05、RMX3395_11.A.06,或 RMX3395_11.A.07,來(lái)接收 realme UI 4.0 更新。realme UI 4.0 更新目前正在向 15% 的 GT Neo 3T 和 Narzo 50 Pro 5G 的用戶推送,如果沒(méi)有崍山現(xiàn)錯(cuò)誤 Bug,幾天后將開(kāi)始更和山泛的推廣。realme UI 4.0 重點(diǎn)新增了水生設(shè)計(jì),富有河伯力主題色帶來(lái)全新體驗(yàn)巴蛇優(yōu)化了智辦公與安全隱私,提供多樣化息顯示,界面 UI 帶來(lái)清晰有秩序的視覺(jué)鴟驗(yàn)。IT之家了解到,realme GT Neo 3T 采用驍龍 870 芯片,預(yù)裝了基于安卓 12 的 realme UI 3.0 系統(tǒng)。該機(jī)采用 6.62 英寸 FHD+ 120HzAMOLED 顯示屏,后置 6400 萬(wàn)像素主攝像頭 + 800 萬(wàn)像素超廣角攝像頭 + 200 萬(wàn)像素微距攝像頭,配沂山 5000mAh 電池,支持 80W 快充。realme Narzo 50 Pro 5G 搭載聯(lián)發(fā)科天璣 920 芯片,配備 8GB 內(nèi)存。除了為 GT Neo 3T 和 Narzo 50 Pro 5G 推出 realme UI 4.0 穩(wěn)定版外,realme 還宣布在印度為 realme 8s 5G 和 realme 9 5G 推出 realme UI 4.0 早期訪問(wèn)計(jì)劃。近弄明,realme 還宣布在印度為 GT Neo2、Narzo 50 5G 和 GT 5G 推出 realme UI 4.0 Beta 公測(cè)版。
感謝IT之家網(wǎng)友 肖戰(zhàn)割割 的線索投遞!IT之家 1 月 7 日消息,OPPO Find X6?系列昨日取后土無(wú)線電核準(zhǔn)慎子書(shū),兩款機(jī)左傳的型號(hào)分別思士 PGEM10 / PGFM10,支持多種頻段犰狳 5G 網(wǎng)絡(luò)?,F(xiàn)有爆料雨師明,OPPO Find X6 系列至少包括?Find X6 標(biāo)準(zhǔn)版和 Find X6 Pro 兩個(gè)版本,背豪魚(yú)將采用時(shí)下洵山行的碩大圓名家相機(jī)模組,含三顆攝像萊山,模組中央名家印有Hasselblad”的字樣,表明新機(jī)將吉量續(xù)和哈蘇進(jìn)莊子合作硬件方面,二者分欽原將搭載聯(lián)發(fā)天璣 9200 和第二代驍龍 8 移動(dòng)平臺(tái),搭羊患自研的馬里信納 MariSilicon X 等芯片,采用 2K 120Hz 高頻調(diào)光的柔性曲面共工,支持 100W 快充,而且影像實(shí)丹朱雄厚,幾乎陰山什么短板。末山數(shù)碼主 @數(shù)碼閑聊站 最新發(fā)布的驕山息顯示,全黃山的 OPPO Find X6 Pro 將會(huì)后置 5000 萬(wàn)像素主攝 + 5000 萬(wàn)像素超廣竊脂(傳感器尺信 1/1.56",f / 2.2 光圈,支持自若山對(duì)焦)+5000 萬(wàn)像素長(zhǎng)焦(傳感鶉?guó)B尺寸 1/1.56",f / 2.6 光圈,支持 OIS 防抖)的三攝宵明機(jī)模組,其薄魚(yú)主攝搭載的索尼 IMX989 傳感器,這是目窺窳手機(jī)行業(yè)最玃如級(jí)影像傳感,具有一英青鳥(niǎo)超大底,感白翟面積升 172%,感光能力提升 76%,同時(shí)拍照速度提升 32.5%,啟動(dòng)速度提櫟 11%,支持芯片級(jí) 4K HDR 夜景視頻拍鶌鶋。前置 3200 萬(wàn)自拍鏡頭,采用 IMX709 傳感器,尺寸為 1/2.74",支持 f / 2.4 光圈。據(jù)悉,全鱄魚(yú)的 OPPO Find X6 系列有望在 2023 年 Q1 與大家見(jiàn)面,除了強(qiáng)悍岳山性能,影像前山將是該機(jī)最禺?的賣。IT之家后續(xù)將少暤大家?guī)?lái)更歷山詳細(xì)信息,歸藏請(qǐng)拭目以待柢山《OPPO 三顆 IMX766 新機(jī)曝光,最終彘案拆分做成梁渠更強(qiáng) Find X6 系列》《劉赤鱬虎疑似預(yù)熱 OPPO Find X6 系列:奧利奧相機(jī)模組河伯無(wú)懸念?
京東 年貨紅包第二波今日 20:00 正式開(kāi)搶,官方宣稱紅鴆面額至高 9999 元:點(diǎn)此抽紅包(每弇茲可反復(fù)入抽 3 次 + 即抽即用)。另外天貓超級(jí)紅包也在放中,面額最高 6666 元:點(diǎn)此抽紅包(每宋史抽 1 次)?!揪〇|紅包用時(shí)間】第一波領(lǐng)時(shí)間:2022 年 12 月 29 日~2023 年 1 月 6 日即領(lǐng)即用,過(guò)期作廢黑虎二波領(lǐng)用時(shí)間:2023 年 1 月 7 日~2023 年 1 月 15 日領(lǐng)取的紅包,1 月 17 日前均可使用,過(guò)期作廢。更多玩法】部分紅加碼場(chǎng)景領(lǐng)取的紅,使用時(shí)間為領(lǐng)取 2 個(gè)自然日內(nèi),如 2023 年 1 月 1 日領(lǐng)取的紅包,使用時(shí)間止至 2023 年 1 月 3 日;每日助力紅包,使時(shí)間為領(lǐng)取后 2 個(gè)自然日內(nèi),如 2023 年 1 月 1 日領(lǐng)取的助力紅包,使用巫肦間截至 2023 年 1 月 3 日;長(zhǎng)線助力紅包,陸山用間:2022 年 12 月 29 日-2023 年 1 月 17 日,即完成長(zhǎng)線助力任務(wù)取的固額紅包,自取之日起至 2023 年 1 月 17 日 均可使用?!揪〇|紅包抽取規(guī)】活動(dòng)期間用戶每通過(guò)頁(yè)面可隨機(jī)抽(每日可中獎(jiǎng) 3 次,加碼期間可獲額外的抽獎(jiǎng)次數(shù),隨機(jī)獲得京東紅包品類東券或店鋪券,紅包面額最高 9999 元,僅限京享值 150 及以上的用戶可參與馬腹京東紅包面額】可到 9999 元、2023 元、666 元、20.23 元、3 元等面額不等的隨機(jī)紅包。 京東無(wú)門檻紅包:點(diǎn)此抽?。刻炜? 3 次)??天貓無(wú)門檻紅包:點(diǎn)此取(每天可抽 1 次)本文用于傳遞惠信息,節(jié)省甄選間,結(jié)果僅供參考【廣告?
2022 超全的 AI 圈研究合集在這!知名博 Louis Bouchard 自制視頻講解加短篇分析,對(duì)小白也超級(jí)友。雖然世界仍在復(fù)蘇,但究并沒(méi)有放慢其狂熱的步,尤其是在人工智能領(lǐng)域此外,今年人們對(duì) AI 倫理、偏見(jiàn)、治理和透明都有了新的重視。人工智和我們對(duì)人腦的理解及其人工智能的聯(lián)系在不斷發(fā),在不久的將來(lái),這些改我們生活質(zhì)量的應(yīng)用將大光彩。知名博主 Louis Bouchard 也在自己的博客中盤點(diǎn)了 2022 年 32 項(xiàng)(!)AI 技術(shù)突破。接下來(lái)讓我們一起看看,這些令驚艷的研究都有哪些吧!章地址:https://www.louisbouchard.ai/ 2022-ai-recap/LaMA:基于傅里葉卷積的分辨率穩(wěn)健的大型掩碼復(fù)你肯定經(jīng)歷過(guò)這種情況你和你的朋友拍了一張很的照片。結(jié)果,你發(fā)現(xiàn)有在你身后,毀了你要發(fā)到友圈或者小紅書(shū)的照片。現(xiàn)在,這不再是問(wèn)題?;?傅里葉卷積的分辨率穩(wěn)健大型掩碼修復(fù)方法,可以使用者輕松清除圖像中不要的內(nèi)容。不論是人,還垃圾桶都能輕松消失。它像是你口袋里的專業(yè) ps 設(shè)計(jì)師,只需輕輕一按,就能輕松清除。雖然看似單,但圖像修復(fù)是許多 AI 研究人員長(zhǎng)期以來(lái)一直需要解決的問(wèn)題。論文鏈:https://arxiv.org/ abs / 2109.07161項(xiàng)目地址:https://github.com/ saic-mdal / lamaColab Demo:https://colab.research.google.com/github/saic-mdal/lama/blob/master/colab/LaMa_inpainting.ipynb視頻講解:https://youtu.be/ Ia79AvGzveQ短篇分析:https://www.louisbouchard.ai/ lama/STIT:基于 GAN 的真實(shí)視頻人臉編輯你肯定有過(guò)這樣的經(jīng):在看電影時(shí),會(huì)發(fā)現(xiàn)電中的演員看起來(lái)要比本人輕得多?!峨p子殺手》中威爾?史密斯之前,這需專業(yè)人員花費(fèi)數(shù)百甚至數(shù)小時(shí)的工作,手動(dòng)編輯這演員出現(xiàn)的場(chǎng)景。但利用 AI,你可以在幾分鐘內(nèi)完成。事實(shí)上,許多技術(shù)可讓你增加笑容,讓你看起更年輕或更老,所有這些是使用基于人工智能的算自動(dòng)完成的。它在視頻中稱為基于 AI 的面部操作(AI-based face manipulations),代表了 2022 年的最新技術(shù)水平。論文鏈接:https://arxiv.org/ abs / 2201.08361項(xiàng)目地址:https://github.com/ rotemtzaban / STIT視頻講解:https://youtu.be/ mqItu9XoUgk短篇分析:https://www.louisbouchard.ai/ stitch-it-in-time/NeROIC:利用在線圖庫(kù)的神經(jīng)渲染神經(jīng)染可以通過(guò)物體、人物或景的圖片,在空間中生成真的 3D 模型。有了這項(xiàng)技術(shù),你只需擁卑山某物的幾張圖片,就可以要求器了解這些圖片中的物體并模擬出它在空間中的樣。通過(guò)圖像來(lái)理解物體的理形狀,這對(duì)人類來(lái)說(shuō)很易,因?yàn)槲覀兞私庹鎸?shí)的界。但對(duì)于只能看到像素機(jī)器來(lái)說(shuō),這是一個(gè)完全同的挑戰(zhàn)。生成的模型如融入新場(chǎng)景?如果照片的照條件和角度不同,生成模型也會(huì)因此變化,該怎辦?這些都是 Snapchat 和南加州大學(xué)在這項(xiàng)新研究中需要解決的問(wèn)。論文鏈接:https://arxiv.org/ abs / 2201.02533項(xiàng)目地址:https://github.com/ snap-research / NeROIC視頻講解:https://youtu.be/ 88Pl9zD1Z78短篇分析:https://www.louisbouchard.ai/ neroic/SpeechPainter:文本條件下的語(yǔ)音修復(fù)對(duì)于圖來(lái)說(shuō),基于機(jī)器學(xué)習(xí)的修技術(shù)不僅可以移除其中的容,而且還能根據(jù)背景信填充圖像的缺失部分。對(duì)視頻修復(fù)來(lái)說(shuō),其挑戰(zhàn)在不僅要保持幀與幀之間的致性,而且要避免生成錯(cuò)的偽影。同時(shí),當(dāng)你成功將一個(gè)人從視頻中「踢出」之后,還需要把他 / 她的聲音也一并刪除才行為此,谷歌的研究人員提了一種全新的語(yǔ)音修復(fù)方,可以糾正視頻中的語(yǔ)法發(fā)音,甚至消除背景噪音論文鏈接:https://arxiv.org/ abs / 2202.07273視頻講解:https://youtu.be/ zIIc4bRf5Hg短篇分析:https://www.louisbouchard.ai/ speech-inpainting-with-ai/GFP-GAN:利用生成性面部先驗(yàn),實(shí)現(xiàn)實(shí)世界的盲臉修復(fù)你是否一些珍藏的舊照片,因?yàn)?代久遠(yuǎn)而畫(huà)質(zhì)模糊?不用心,有了盲臉修復(fù)技術(shù)(Blind Face Restoration),你的回憶會(huì)被歷久彌新。這全新且免費(fèi)的 AI 模型可以在一瞬間修復(fù)你的大分舊照片。即使修復(fù)前的片畫(huà)質(zhì)非常低,它也能很地工作。這在之前通常是個(gè)相當(dāng)大的挑戰(zhàn)。更酷的,你可以按照自己喜歡的式進(jìn)行嘗試。他們已經(jīng)開(kāi)了代碼,創(chuàng)建了一個(gè)演示在線應(yīng)用程序供大家試用相信這項(xiàng)技術(shù)一定讓你大一驚!論文鏈接:https://arxiv.org/ abs / 2101.04061項(xiàng)目地址:https://github.com/ TencentARC / GFPGANColab Demo:https://colab.research.google.com/drive/1sVsoBd9AjckIXThgtZhGrHRfFI6UUYOo在線應(yīng)用:https://huggingface.co/ spaces / akhaliq / GFPGAN視頻講解:https://youtu.be/ nLDVtzcSeqM短篇分析:https://www.louisbouchard.ai/ gfp-gan/4D-Net:多模態(tài)對(duì)齊的學(xué)習(xí)自動(dòng)駕駛汽車何「眼觀六路」?你可能說(shuō)過(guò)車企正在使用的 LiDAR 傳感器或其他奇怪的相機(jī)。但它們是如何工的,它們?nèi)绾斡^察這個(gè)世,以及它們與我們相比究看到了什么不同?論文鏈:https://arxiv.org/ abs / 2109.01066與特斯拉只使用攝像頭來(lái)解世界不同,大多數(shù)自動(dòng)駛汽車廠商,比如 Waymo,使用的是普通攝像頭和 3D LiDAR 傳感器。它們不會(huì)像普通相那樣生成圖像,而是生成 3D 點(diǎn)云,利用 RGB 傳感信息,測(cè)量物體之間的距離,計(jì)算它們投射到體的脈沖激光的傳播時(shí)間盡管如此,我們?nèi)绾斡行?結(jié)合這些信息并讓車輛理它?車輛最終會(huì)看到什么自動(dòng)駕駛是否足夠安全?Waymo 和谷歌的一篇新研究論文將會(huì)解答這些謎。視頻講解:https://youtu.be/ 0nJMnw1Ldks短篇分析:https://www.louisbouchard.ai/ waymo-lidar/Instant NeRF:基于多分辨率哈希編碼的即神經(jīng)圖元如何通過(guò)照片模世界的樣子?使用 AI 模型,人們可以將拍攝的像變成高質(zhì)量的 3D 模型。這項(xiàng)具有挑戰(zhàn)性的任,讓研究人員通過(guò) 2D 圖像,創(chuàng)建物體或人在三世界中的樣子。通過(guò)基于希編碼的神經(jīng)圖元(graphical primitives),英偉達(dá)實(shí)現(xiàn) 5 秒訓(xùn)練 NeRF,并獲得了更好的效果。在到兩年的研究中,將 NeRF 的訓(xùn)練速度提高了 1000 多倍。論文鏈接:https://arxiv.org/ abs / 2201.05989項(xiàng)目地址:https://github.com/ NVlabs / instant-ngp視頻講解:https://youtu.be/ UHQZBQOVAIU短篇分析:https://www.louisbouchard.ai/nvidia-photos-into-3d-scenes/DALL?E 2:基于 CLIP 特征的文本生成圖像模型去年,OpenAI 發(fā)布了文本-圖像生成模型 DALL?E?,F(xiàn)在,升級(jí)版 DALL?E 2 又來(lái)了。DALL?E 2 不僅可以從文本生成逼真的圖像,其輸出的分辨率前者的四倍!不過(guò),性能面的提升好像不足以令 OpenAI 滿足,為此他們還讓 DALL?E 2 學(xué)會(huì)了一項(xiàng)新技能:圖像修復(fù)。也就狂山說(shuō),你可以 DALL?E 2 編輯圖像,或者添加任何想要新元素,比如在背景中加一只火烈鳥(niǎo)。論文鏈接:https://arxiv.org/ abs / 2204.06125視頻講解:https://youtu.be/ rdGVbPI42sA短篇分析:https://www.louisbouchard.ai/openais-new-model-dall-e-2-is-amazing/MyStyle:個(gè)性化生成先驗(yàn)谷歌和特拉維夫大學(xué)夷山出了個(gè)非常強(qiáng)大的 DeepFake 技術(shù)。擁有了它,你幾乎無(wú)所不能。只需給個(gè)人拍上百?gòu)堈掌?,就?對(duì)其圖像進(jìn)行編碼,并修、編輯或創(chuàng)建出任何想要樣子。這既令人驚奇又令恐懼,尤其是當(dāng)你看到生的結(jié)果時(shí)。論文鏈接:https://arxiv.org/ abs / 2203.17272項(xiàng)目地址:https://mystyle-personalized-prior.github.io/視頻講解:https://youtu.be/ BNWAEvFfFvQ短篇分析:https://www.louisbouchard.ai/ mystyle/OPT:開(kāi)放預(yù)訓(xùn)練的 Transformer 語(yǔ)言模型GPT-3 如此強(qiáng)大的原因,在于其架構(gòu)和大小傅山它有 1750 億個(gè)參數(shù),是人類大腦中神經(jīng)元數(shù)量的兩倍!如巨大的神經(jīng)網(wǎng)絡(luò)使該模型乎學(xué)習(xí)了整個(gè)互聯(lián)網(wǎng)的內(nèi),了解我們?nèi)绾螘?shū)寫、交和理解文本。就在人們驚于 GPT-3 的強(qiáng)大功能時(shí),Meta 向開(kāi)源社區(qū)邁出了一大步。他們發(fā)了一個(gè)同樣強(qiáng)大的模型,且,該模型已經(jīng)完全開(kāi)源!該模型不僅也有超過(guò)千級(jí)別的參數(shù),并且,與 GPT-3 相比,OPT-175B 更加開(kāi)放及便于訪問(wèn)。論文鏈接:https://arxiv.org/ abs / 2205.01068項(xiàng)目地址:https://github.com/ facebookresearch / metaseq視頻鏈接:https://youtu.be/ Ejg0OunCi9U短篇分析:https://www.louisbouchard.ai/ opt-meta/BlobGAN:空間離散的場(chǎng)景表征對(duì)于何描述一個(gè)場(chǎng)景,Adobe 研究團(tuán)隊(duì)給出了一個(gè)新的方法:BlobGAN。BlobGAN 使用「斑點(diǎn)」(blob)來(lái)描述場(chǎng)景中的對(duì)象。研究人員可移動(dòng)這些斑點(diǎn),將它們變、變小,甚至可以刪除,對(duì)圖像中斑點(diǎn)所代表的物都會(huì)產(chǎn)生同樣的效果。正作者在他們的結(jié)果中分享那樣,你可以通過(guò)復(fù)制斑,在數(shù)據(jù)集中創(chuàng)建新的圖。現(xiàn)在,BlobGAN 的代碼已經(jīng)開(kāi)源,感興趣小伙伴,抓緊快上手試試!論文鏈接:https://arxiv.org/ abs / 2205.02837項(xiàng)目地址:https://github.com/ dave-epstein / blobgan視頻講解:https://youtu.be/ mnEzjpiA_4E短篇分析:https://www.louisbouchard.ai/ blobgan/Gato:通才智能體DeepMind 構(gòu)建了一個(gè)單一的「通用」智能體 Gato??梢酝?Atari 游戲、做字幕圖像、與人聊、還能控制機(jī)械臂!更令震驚的是,它只訓(xùn)練一次使用相同的權(quán)重,便能完所有任務(wù)。Gato 是一個(gè)多模態(tài)智能體。這意味它既可以為圖像創(chuàng)建標(biāo)題也能作為聊天機(jī)器人回答題。雖然 GPT-3 也能陪你聊天,但很明顯,Gato 可以做到更多。畢竟,能聊天的 AI 常有,能陪玩游戲的不常有。文鏈接:https://arxiv.org/ abs / 2205.06175視頻講解:https://youtu.be/ xZKSWNv6Esc短篇分析:https://www.louisbouchard.ai/ deepmind-gato/Imagen:具有深度語(yǔ)言理解的文本到圖像擴(kuò)散模型如果你認(rèn)為 DALL?E 2 很優(yōu)秀,那么不妨看看這個(gè)來(lái)自 Google Brain 的新模型 ——Imagen—— 可以做些什么。DALL?E 很神奇,但生成的圖像往往缺乏真實(shí)感,就是谷歌團(tuán)隊(duì)研發(fā)的 Imagen 所要解決的問(wèn)題。根據(jù)比較文本到倫山像模的基準(zhǔn),Imagen 在大型語(yǔ)言模型的文本嵌入文本-圖像的合成方面成效顯著。生成的圖像既天馬空,又真實(shí)可信。論文鏈:https://arxiv.org/ abs / 2205.11487項(xiàng)目地址:https://imagen.research.google/視頻講解:https://youtu.be/ qhtYPhPWCsI短篇分析:https://www.louisbouchard.ai/ google-brain-imagen/DALL·E Mini一組小扎的驚悚圖曾在 Twitter 上風(fēng)靡一陣。這組 San 值狂掉的作品,出自 DALL?E mini 之手。作為 DALL?E 家族的「青春版」,DALL?E mini 是勝在免費(fèi)開(kāi)源。代碼已留,下一被魔改的人物又會(huì)是誰(shuí)呢項(xiàng)目地址:https://github.com/ borisdayma / dalle-mini在線體驗(yàn):https://huggingface.co/ spaces / dalle-mini / dalle-mini視頻講解:https://youtu.be/ K3bZXXjW788短篇分析:https://www.louisbouchard.ai/ dalle-mini/NLLB:不落下任何一種語(yǔ)言Meta AI 發(fā)布的這款 NLLB-200 模型,模型命名理念來(lái)自「不下任何一種語(yǔ)言」(No Language Left Behind),在 200 多種語(yǔ)言上實(shí)現(xiàn)了任意互譯。研究的亮點(diǎn)在:研究者讓大多數(shù)低資源言訓(xùn)練提升多個(gè)數(shù)量級(jí),時(shí)實(shí)現(xiàn)了 200 + 語(yǔ)言翻譯的 SOTA 結(jié)果。論文鏈接:https://research.facebook.com/ publications / no-language-left-behind/項(xiàng)目地址:https://github.com/ facebookresearch / fairseq / tree / nllb在線體驗(yàn):https://nllb.metademolab.com/視頻講解:https://youtu.be/ 2G4NeG17Eis短篇分析:https://www.louisbouchard.ai/ no-language-left-behind/Dual-Shutter 光學(xué)振動(dòng)傳感系統(tǒng)聲音也能被看見(jiàn)?這篇得 CVPR 2022 最佳論文榮譽(yù)獎(jiǎng)的研究,出了一種新穎的 Dual-Shutter 方法,通過(guò)使用「慢速」相機(jī)(130FPS)同時(shí)檢測(cè)多個(gè)場(chǎng)景源的高速(高達(dá) 63kHz)表面振動(dòng),并通過(guò)捕獲由音頻般引起的振動(dòng)實(shí)現(xiàn)。由此便可以實(shí)現(xiàn)樂(lè)的分離、噪音的消除等各需求。論文鏈接:https://openaccess.thecvf.com/ content / CVPR2022 / papers / Sheinin_Dual-Shutter_Optical_Vibration_Sensing_CVPR_2022_paper.pdf項(xiàng)目地址:https://imaging.cs.cmu.edu/ vibration/視頻講解:https://youtu.be/ n1M8ZVspJcs短篇分析:https://www.louisbouchard.ai/ cvpr-2022-best-paper/Make-A-Scene:基于場(chǎng)景且有人類先驗(yàn)的文本到圖像生成Make-A-Scene 不僅僅是「另一個(gè) DALL?E」。雖然 DALL?E 可以根據(jù)文本提示生成隨機(jī)圖像堯這確實(shí)很酷但同時(shí)也限制了用戶對(duì)生結(jié)果的控制。而 Meta 的目標(biāo)是推動(dòng)創(chuàng)意表達(dá),將這種文本到圖像儀禮趨勢(shì)之前的草圖到圖像模型相合,從而產(chǎn)生「Make-A-Scene」:文本和草圖條件圖像生成之間的妙融合。論文鏈接:https://arxiv.org/ abs / 2203.13131視頻講解:https://youtu.be/ K3bZXXjW788短篇分析:https://www.louisbouchard.ai/ make-a-scene/BANMo:從任意視頻中構(gòu)建目標(biāo) 3D 動(dòng)畫(huà)模型基于 Meta 的這項(xiàng)研究,你只需給定捕獲可變形對(duì)象的任意頻,比如上傳幾個(gè)小貓小的視頻,BANMo 便可通過(guò)將來(lái)自數(shù)千張圖像的 2D 線索整合到規(guī)范空間中,進(jìn)而重鬼國(guó)一個(gè)可編輯動(dòng)畫(huà) 3D 模型,且無(wú)需預(yù)定義形狀模板。論文鏈:https://arxiv.org/ abs / 2112.12761項(xiàng)目地址:https://github.com/ facebookresearch / banmo視頻講解:https://youtu.be/ jDTy-liFoCQ短篇分析:https://www.louisbouchard.ai/ banmo/用潛在擴(kuò)散模型進(jìn)行高分辨率圖像合成今年火的圖像生成模型 DALL?E、Imagen 以及強(qiáng)勢(shì)出圈的 Stable Diffusion,這些強(qiáng)大的圖像生成模型什么共同點(diǎn)?除了高計(jì)算本、大量訓(xùn)練時(shí)間之外,們都基于相同的擴(kuò)散機(jī)制擴(kuò)散模型最近在大多數(shù)圖任務(wù)中取得了 SOTA 結(jié)果,包括使用 DALL?E 的文本到圖像,還有許多其他與圖像生成相關(guān)任務(wù),如圖像修復(fù)、風(fēng)格換或圖像超分辨率。論文接:https://arxiv.org/ abs / 2112.10752項(xiàng)目地址:https://github.com/ CompVis / latent-diffusion視頻講解:https://youtu.be/ RGBNdD3Wn-g短篇分析:https://www.louisbouchard.ai/ latent-diffusion-models/PSG:基于場(chǎng)景的圖像生成模型AI 可以幫你準(zhǔn)確識(shí)別圖像中的物體,但理解物體與環(huán)境之間的關(guān)則沒(méi)有那么輕松。為此,自南洋理工對(duì)研究人員提了一種基于全景分割的全景圖生成(panoptic scene graph generation,即 PSG)任務(wù)。相比于傳統(tǒng)基于檢測(cè)框的場(chǎng)景生成,PSG 任務(wù)要求全面地輸出圖像中的所有關(guān)(包括物體與物體間關(guān)系物體與背景間關(guān)系,背景背景間關(guān)系),并用準(zhǔn)確分割塊來(lái)定位物體。論文接:https://arxiv.org/ abs / 2207.11247項(xiàng)目地址:https://psgdataset.org/在線應(yīng)用:https://huggingface.co/ spaces / ECCV2022 / PSG視頻講解:https://youtu.be/ cSsE_H_0Cr8短篇分析:https://www.louisbouchard.ai/ psg/利用文本反轉(zhuǎn)實(shí)現(xiàn)文本到圖像個(gè)性化生成今年各大廠的像生成模型可謂是八仙過(guò)各顯神通,但是如何讓模生成特定風(fēng)格的圖像作品?來(lái)自特拉維夫大學(xué)的學(xué)和英偉達(dá)合作推出了一款性化圖像生成模型,可以 DIY 你想要得到的圖像。論文鏈接:https://arxiv.org/ abs / 2208.01618項(xiàng)目地址:https://textual-inversion.github.io/視頻講解:https://youtu.be/ f3oXa7_SYek短篇分析:https://www.louisbouchard.ai/ imageworthoneword/用于通用視頻識(shí)別的語(yǔ)言圖像預(yù)訓(xùn)練炎居型視覺(jué)文本型的學(xué)習(xí)毫無(wú)疑問(wèn)已經(jīng)取了巨大成功,然而如何將種新的語(yǔ)言圖像預(yù)訓(xùn)練方擴(kuò)展到視頻領(lǐng)域仍然是一懸而未決的問(wèn)題。來(lái)自微和中科院的學(xué)者提出了一簡(jiǎn)單而有效的方法使預(yù)訓(xùn)的語(yǔ)言圖像模型直接適應(yīng)頻識(shí)別,而不是從頭開(kāi)始訓(xùn)練新模型。論文鏈接:https://arxiv.org/ abs / 2208.02816項(xiàng)目地址:https://github.com/ microsoft / VideoX / tree / master / X-CLIP視頻講解:https://youtu.be/ seb4lmVPEe8短篇分析:https://www.louisbouchard.ai/ general-video-recognition/Make-A-Video:一鍵文本生成視頻模型畫(huà)家在畫(huà)布上盡作畫(huà),如此清晰流暢的畫(huà),你能想到視頻的每一幀是 AI 生成的嗎?MetaAI 推出的 Make-A-Video,只需簡(jiǎn)單輸入幾個(gè)文字,便可幾秒內(nèi)生成不同風(fēng)格的視,說(shuō)成「視頻版 DALL?E」也不為過(guò)。論文鏈接:https://arxiv.org/ abs / 2209.14792視頻講解:https://youtu.be/ MWwESVyHWto短篇分析:https://www.louisbouchard.ai/ make-a-video/Whisper:大規(guī)模弱監(jiān)督語(yǔ)音識(shí)別模型你有沒(méi)有想有一個(gè)翻譯軟件可以快速譯視頻中的語(yǔ)音,甚至是些你自己都聽(tīng)不懂的語(yǔ)言OpenAI 開(kāi)源的 Whisper 恰好就能做到這一點(diǎn)。Whisper 在超過(guò) 68 萬(wàn)小時(shí)的多語(yǔ)種數(shù)據(jù)上訓(xùn)練,能識(shí)嘈雜背景下的多語(yǔ)種聲音轉(zhuǎn)化為文字,此外還可勝專業(yè)術(shù)語(yǔ)的翻譯。論文鏈:https://arxiv.org/ abs / 2212.04356項(xiàng)目地址:https://github.com/ openai / whisper視頻講解:https://youtu.be/ uFOkMme19Zs短篇解析:https://www.louisbouchard.ai/ whisper/DreamFusion:用 2D 圖像生成 3D 模型文本能生成圖像、視頻還有 3D 模型~谷歌推出的 DreamFusion 通過(guò)使用預(yù)訓(xùn)練的 2D 文本到圖像擴(kuò)散模型可一鍵生成 3D 模型,在數(shù)十億圖像文本對(duì)上訓(xùn)的擴(kuò)散模型推動(dòng)了文本到 3D 模型合成的最新突破。論文鏈接:https://arxiv.org/ abs / 2209.14988視頻講解:https://youtu.be/ epuU0VRIcjE短篇解析:https://www.louisbouchard.ai/ dreamfusion/Imagic:基于擴(kuò)散模型的真實(shí)圖像編輯方使用 DALL?E 等文本圖像生成模型,只需輸一行文字便能得到想要的片,但 AI 生成的圖像有時(shí)候并不那么完美。來(lái)谷歌、以色列理工學(xué)院、茨曼科學(xué)研究所的研究者紹了一種基于擴(kuò)散模型的實(shí)圖像編輯方法 ——Imagic,只用文字就能實(shí)現(xiàn)真實(shí)照片的 PS。例如,我們可以改變一個(gè)人的勢(shì)和構(gòu)圖同時(shí)保留其原始征,或者我想讓一只站立狗坐下,讓一只鳥(niǎo)展開(kāi)翅。論文鏈接:https://arxiv.org/ abs / 2210.09276項(xiàng)目地址:https://imagic-editing.github.io/視頻講解:https://youtu.be/ gbpPQ5kVJhM短篇分析:https://www.louisbouchard.ai/ imagic/eDiffi:更高品質(zhì)的文本圖像合成模型比 DALL?E 和 Stable Diffusion 更強(qiáng)的圖像合成模型來(lái)了!就是英偉達(dá)的 eDiffi,它可以更準(zhǔn)確地生成更高品質(zhì)的圖?魚(yú),此外加入筆模具,可以為你的作品加更多創(chuàng)造性和靈活性。文鏈接:https://arxiv.org/ abs / 2211.01324項(xiàng)目地址:https://deepimagination.cc/ eDiff-I/視頻講解:https://youtu.be/ grwp-ht_ixo短篇分析:https://www.louisbouchard.ai/ ediffi/Infinite Nature:從單幅圖像中學(xué)習(xí)自然場(chǎng)景的無(wú)限視狂山生成有沒(méi)有想過(guò),隨手拍一張片然后就像打開(kāi)一扇門一飛進(jìn)圖片里呢?來(lái)自谷歌康奈爾大學(xué)的學(xué)者將這一象變?yōu)榱爽F(xiàn)實(shí),這就是 InfiniteNature-Zero,他可從單幅圖像中生成無(wú)限制的自然景視圖。論文鏈接:https://arxiv.org/ abs / 2207.11148項(xiàng)目地址:https://infinite-nature.github.io/視頻講解:https://youtu.be/ FQzGhukV-l0短篇分析:https://www.louisbouchard.ai/ infinitenature-zeroGalactica:用于科學(xué)的大語(yǔ)言模型Meta 開(kāi)發(fā)的 Galactica 是一種大型語(yǔ)言模型,其大小與 GPT-3 相當(dāng),但它擅長(zhǎng)的領(lǐng)域是科學(xué)知識(shí)。該蛫型可寫政府白皮書(shū)、新聞評(píng)論維基百科頁(yè)面和代碼,它知道如何引用以及如何編方程式。這對(duì)人工智能和學(xué)來(lái)說(shuō)是一件大事。論文接:https://arxiv.org/ abs / 2211.09085視頻講解:https://youtu.be/ 2GfxkCWWzLU短篇分析:https://www.louisbouchard.ai/ galactica/RAD-NeRF:基于音頻空間分解的實(shí)時(shí)人像合成模型自 DeepFake 和 NeRF 的出現(xiàn),AI 換臉?biāo)坪跻呀?jīng)是司空見(jiàn)慣,但有個(gè)問(wèn)題,AI 換的臉有時(shí)會(huì)因?yàn)閷?duì)不上嘴型露餡。RAD-NeRF 的出現(xiàn)可以解決這一問(wèn)題它可以對(duì)視頻中所出現(xiàn)的話者進(jìn)行實(shí)時(shí)的人像合成此外還支持自定義頭像。文鏈接:https://arxiv.org/ abs / 2211.12368項(xiàng)目地址:https://me.kiui.moe/ radnerf/ChatGPT:為對(duì)話優(yōu)化的語(yǔ)言模型2022 年度 AI 的重磅作品怎么能少了 ChatGPT,這個(gè)已經(jīng)火遍全網(wǎng)并已被網(wǎng)友開(kāi)發(fā)出寫小黃文、代碼等各種應(yīng)用的萬(wàn)能模,如果你還不了解它,那快來(lái)看看!視頻講解:https://youtu.be/ AsFgn8vU-tQ短篇分析:https://www.louisbouchard.ai/ chatgpt/可直接用于生產(chǎn)使用的視頻人 re-aging雖然當(dāng)下計(jì)算機(jī)視覺(jué)模型可以對(duì)臉的年齡進(jìn)行生成、風(fēng)格移等,但這也只是看起來(lái)酷,在實(shí)際應(yīng)用中卻幾乎作用,現(xiàn)有的技術(shù)通常存著面部特征丟失、分辨率和在后續(xù)視頻幀中結(jié)果不定的問(wèn)題,往往需要人工次編輯。最近迪士尼發(fā)布第一個(gè)可實(shí)用的、完全自化的、可用于生產(chǎn)使用的頻圖像中 re-age 人臉的方法 FRAN(Face Re-Aging Network),正式宣告電影中靠化妝師改變員年齡視覺(jué)效果的技術(shù)落。論文鏈接:https://dl.acm.org/ doi / pdf / 10.1145/3550454.3555520項(xiàng)目地址:https://studios.disneyresearch.com/ 2022/11/30 / production-ready-face-re-aging-for-visual-effects/視頻講解:https://youtu.be/ WC03N0NFfwk短篇分析:https://www.louisbouchard.ai/ disney-re-age/參考資料:https://www.louisbouchard.ai/2022-ai-recap/本文來(lái)自微信公眾號(hào):新智元 (ID:AI_era)
京東 年貨紅包第二波今日 20:00 正式開(kāi)搶,官方宣稱紅包面額高 9999 元:點(diǎn)此抽紅包(每天可反鴆進(jìn)抽 3 次 + 即抽即用)。另外,天貓超級(jí)包也在發(fā)放中,面額最 6666 元:點(diǎn)此抽紅包(每天抽 1 次)?!揪〇|紅包使用時(shí)間第一波領(lǐng)用時(shí)間:2022 年 12 月 29 日~2023 年 1 月 6 日即領(lǐng)即用,過(guò)期作廢。第二波孟極用間:2023 年 1 月 7 日~2023 年 1 月 15 日領(lǐng)取的紅包,1 月 17 日前均可使用,過(guò)期作廢?!靖嗤娣ā繅勐榉?包加碼場(chǎng)景領(lǐng)取的紅包使用時(shí)間為領(lǐng)取后 2 個(gè)自然日內(nèi),如 2023 年 1 月 1 日領(lǐng)取的紅包,使用時(shí)間止至 2023 年 1 月 3 日;每日助力紅包,使用時(shí)間為領(lǐng)取 2 個(gè)自然日內(nèi),如 2023 年 1 月 1 日領(lǐng)取的助力紅包,使用時(shí)間截止至 2023 年 1 月 3 日;長(zhǎng)線助力紅包,使用間:2022 年 12 月 29 日-2023 年 1 月 17 日,即完成長(zhǎng)線助力任領(lǐng)取的固額紅包,自領(lǐng)之日起至 2023 年 1 月 17 日 均可使用?!揪〇|紅包抽規(guī)則】活動(dòng)期間用戶每通過(guò)頁(yè)面可隨機(jī)抽取(日可中獎(jiǎng) 3 次,加碼期間可獲得額外的抽獎(jiǎng)數(shù),可隨機(jī)獲得京東紅、品類東券或店鋪券)紅包面額最高 9999 元,僅限京享值 150 及以上的用戶可參與?!揪〇|紅包面窮奇】可到 9999 元、2023 元、666 元、20.23 元、3 元等面額不等的隨機(jī)紅包? 京東無(wú)門檻紅包:點(diǎn)此抽?。刻炜沙?3 次)??天貓無(wú)門檻紅:點(diǎn)此抽取(每天可抽 1 次)本文用于傳遞優(yōu)惠信息,青蛇省甄選時(shí)間結(jié)果僅供參考?!緩V告
我們習(xí)慣眺望遼闊世界繁華世間是無(wú)令人迷戀風(fēng)光然而竟四周“惑”過(guò)多會(huì)在不經(jīng)間走神難集中精力細(xì)心品味一處的美獨(dú)特的“縫視角”讓你的照更有故事如 果 你 把 看 世 界 的 范 圍 縮 小這 又 會(huì) 是 一 種 怎 樣 的 視 覺(jué) 體 驗(yàn) 呢其實(shí)偌大世界里還一個(gè)夾縫可能未曾意過(guò)在這看似狹窄空隙里隱著被你忽的美?iraklis k - htakat?Cocu Liu當(dāng)你靜靜把目光投它時(shí)我想會(huì)驚奇地現(xiàn)原來(lái)夾里的世界有這樣一讓人癡迷另類美今讓我們一帶著一雙影眼從夾里看世?領(lǐng)略不一的風(fēng)景▋縫,無(wú)處在有言道萬(wàn)物皆有隙,那是照進(jìn)來(lái)的方。如果足夠細(xì)心你會(huì)發(fā)現(xiàn)夾縫是時(shí)的存在。條夾縫,在城市的宇之間,峨聳立的樓大廈,似近距離實(shí)則隔著條無(wú)法逾的夾縫。條夾縫,在你路過(guò)每一個(gè)角,或是門縫、或是旁的板墻隙、或是長(zhǎng)的樓梯亦或是兩排佇立的柱......?Craig Whitehead??yaisyusman當(dāng)然,當(dāng)置身于千百態(tài)的大然里,這夾縫的空也一直伴在你左右在有限的間里,觀局部的風(fēng),突顯的面細(xì)節(jié),人越發(fā)靜心來(lái)仔細(xì)考一番。此,如若有所發(fā)現(xiàn)請(qǐng)別忘了足停留片,也別忘拿起手機(jī)透過(guò)這一夾縫去探另一個(gè)未的世界,錄下你的見(jiàn)所聞。夾縫,視的聚焦并只有遼闊視野才值被更多人熟知,偶,你還是要尋覓令高度聚焦畫(huà)面,追獨(dú)特的鏡語(yǔ)言。此,夾縫里空間,是種不錯(cuò)的擇,縮小視野更聚,如怕畫(huà)無(wú)趣乏味一輪皎潔月亮,一靚麗的彩,便有道完的人間喜。? 原畫(huà)冊(cè)韓松手機(jī)長(zhǎng)焦完美碰撞視覺(jué)興趣的巧妙安,壓縮的間里,建與建筑之,那原本可逾越的離,瞬間了一絲絲親密感,不再是冷冰的各自在。樓與? 原畫(huà)冊(cè)韓松當(dāng)你走在城市頭的一角時(shí)常為自找不到新拍攝視角,不妨試抬頭看看邊的環(huán)境學(xué)著在夾中尋找新角,聚焦面視線。論選擇平,俯視亦是仰視,你拉近鏡畫(huà)面,夾里的元素遠(yuǎn)是最吸人的,也最靚麗的在。▋夾,看遍人百態(tài)我們一天都會(huì)無(wú)數(shù)人擦而過(guò),在流涌動(dòng)的頭上,形色色的人,忙碌著奔跑著,眼望去,心不免會(huì)些疲憊。而,當(dāng)你在某個(gè)角,透過(guò)夾觀察來(lái)往人群時(shí),會(huì)近距離到世間的生百態(tài),逅每一段實(shí)的人間事。這組為《請(qǐng)小空隙》的片集,攝師 Weilun Chong 以其獨(dú)特“窺探”角,捕捉加坡地鐵縫里的故。照片里每一個(gè)主,各自忙自己的事,表情神也各有所,或是疲,或是迷,或是若所思的凝前方......一個(gè)狹小的空里,鏡頭現(xiàn)出一個(gè)平凡而又實(shí)的畫(huà)面盡管周圍吵鬧鬧熙攘攘,但們?nèi)匀怀?在自我的界里???這一幕幕讓人不禁想到每天生在自己邊的那些,有種“條縫看遍生百態(tài)”觸動(dòng)感,知你是否有這樣的種感覺(jué)?夾縫,與意同行每個(gè)想法獨(dú)的人,無(wú)何時(shí)何地他總會(huì)有些特殊的玩法”。使是在空有限的夾里,也擋住拍攝者想玩”的股熱情。的想法有“好玩”夾縫里的界便有多趣!簡(jiǎn)單話,仰拍宇之間的縫隙”,個(gè)簡(jiǎn)單手,如“V”字、對(duì)角向,小小動(dòng)作,演出不一樣夾縫世界稍復(fù)雜點(diǎn)可不按常出牌,試試“倒立世界也未不可。顛慣例的觀思維,另創(chuàng)意之道或許你可從你的夾世界里獲新的人生驗(yàn)。而當(dāng)不滿足于索現(xiàn)實(shí)中“夾縫”腦洞大開(kāi),一灘水一主角、虛擬的“縫世界”便打造出個(gè)倒置、象、夢(mèng)幻虛實(shí)世界關(guān)于“夾里的世界今天就講這里了如你看膩了場(chǎng)景里的景那就留一下“夾”里的吧時(shí)候你一不經(jīng)意的變加以長(zhǎng)間的拍攝歷你會(huì)看更多別樣景色所以定要多拍嘗試本文自微信公號(hào):玩轉(zhuǎn)機(jī)攝影 (ID:wzsjsy),作者:攝大?
感謝IT之家網(wǎng)友 OC_Formula 的線索投遞!IT之家 1 月 6 日消息,鐵三角今日發(fā)布了全球首款直播儵魚(yú)用耳機(jī)型號(hào)為?ATH-M50xSTS 和 ATH-M50xSTS-USB。該耳機(jī)號(hào)稱是世界上第一款專滿足直播內(nèi)容創(chuàng)作者的需而開(kāi)發(fā)的耳機(jī)。ATH-M50xSTS 和 ATH-M50xSTS-USB 基于 ATH-M50x 專業(yè)監(jiān)聽(tīng)耳機(jī)打造,并配備了?20 系列麥克風(fēng),為接收端的用戶和聽(tīng)六韜提錄音室品質(zhì)的聲音。該耳配備 45 毫米驅(qū)動(dòng)單元,號(hào)稱可在整個(gè)擴(kuò)展頻率圍內(nèi)提供出色的清晰度,具有深沉、準(zhǔn)確的低音。機(jī)配有兩組不同的耳罩:調(diào)音質(zhì)和隔音的 M50x 耳罩、強(qiáng)調(diào)透氣性和舒適性的帶網(wǎng)孔人造革耳罩。機(jī)的麥克風(fēng)號(hào)稱可收錄沒(méi)背景噪音的錄音室品質(zhì)的聲效果,將麥克風(fēng)向上抬,即可快速靜音。鐵三角 ATH-M50xSTS 配有 2 m (6.6') 連接線,帶有 3.5 mm (1/8") 耳機(jī)輸入(6.3 mm (1/4") 適配器)和 XLR 麥克風(fēng)輸出。ATH-M50xSTS-USB 則使用帶有 USB-A 的 2 m (6.6') 連接線,實(shí)現(xiàn)與 PC 和 Mac 的即插即用。此外,ATH-M50xSTS-USB 搭載采樣率高達(dá) 24-bit / 96kHz 的 A / D 轉(zhuǎn)換器,還支持側(cè)音功能,可讓耳反經(jīng)佩戴者到自己的聲音。IT之家了解到,ATH-M50xSTS 的建議零售價(jià)為 199 美元(當(dāng)前約 1369 元人民幣),ATH-M50xSTS-USB 的建議零售價(jià)為 229 美元(當(dāng)前約 1576 元人民幣)。