網(wǎng)上有很多關(guān)于辦pos機(jī)表情包,那些讓我半夜偷偷收藏的沙雕表情包的知識,也有很多人為大家解答關(guān)于辦pos機(jī)表情包的問題,今天pos機(jī)之家(m.afbey.com)為大家整理了關(guān)于這方面的知識,讓我們一起來看下吧!
本文目錄一覽:
辦pos機(jī)表情包
機(jī)器之心機(jī)器之心報(bào)道參與:蛋醬要是收藏夾里沒幾個(gè)獨(dú)家沙雕表情包,當(dāng)代網(wǎng)民都無法在朋友圈立足。但有一些「妙不可言」的圖片,也許是 AI 生成的結(jié)果。一般人很難讀出「meme」這個(gè)詞,它通常譯為「模因」,起源于 1976 年,本意為「模仿傳遞行為」。但讀音和來源或許沒那么重要,重要的是每個(gè)網(wǎng)上沖浪的人都見過它,甚至沉迷于它。在中文里,它大概被稱為「網(wǎng)絡(luò)梗圖」、「沙雕圖片」、「表情包」等等……比如這個(gè):
還有這個(gè):
這個(gè)金發(fā)藍(lán)衣的快樂男孩,你難道不眼熟嗎?作為機(jī)器學(xué)習(xí)研究者,你可能還偷偷在收藏夾里保存了這些:
這是一張?jiān)谏疃葘W(xué)習(xí)社區(qū)流傳很廣的圖,表達(dá)的是新的預(yù)訓(xùn)練方法如何比之前的 SOTA 方法更優(yōu)越。當(dāng)然,新 SOTA 方法是層出不窮的,這樣的圖片收集起來甚至能形成一個(gè)完整的系列。圖的創(chuàng)建通常只有兩步:選一張時(shí)興的 meme 模版(即圖像),然后配上「精妙絕倫」的說明文字,制造出一種別有韻味的幽默感。.這種圖像、文字和幽默感的奇妙組合,在信息傳遞方面極具穿透力和感染力,比如當(dāng)你看到這張圖時(shí):
雖然這只是一張靜態(tài)圖片,句子也不成句子,但你的眼前已經(jīng)浮現(xiàn)出了七人共舞的場景。當(dāng)代網(wǎng)友人人都用表情包,甚至還會(huì)自制。比如:
然而,表情包除了自制,還可以由 AI 生成。你可能想不到,某個(gè)平平無奇的表情包背后竟然隱藏著「神秘力量」。今天,我們就來了解一下 meme 自動(dòng)生成。meme 自動(dòng)生成一直是深度學(xué)習(xí)領(lǐng)域的課題之一。以往的生成方法要么是從一堆 meme 字幕中選擇最適合的一個(gè),要么是基于給定圖片和模版來生成 meme 字幕,似乎有點(diǎn)不夠「便捷」。近日,來自美國亞利桑那州立大學(xué)的研究者對 meme 圖生成方法進(jìn)行了改進(jìn)提升。在這篇論文中,研究者提出了一種根據(jù)給定的輸入語句來生成匹配圖片的方法。這是一項(xiàng)很有挑戰(zhàn)性但有趣的 NLP 任務(wù)。
論文地址:https://arxiv.org/abs/2004.14571v1通過對 meme 圖生成機(jī)制的深入了解,研究者決定將 meme 圖生成與自然語言翻譯結(jié)合起來。在自然語言翻譯工作中,為了將輸入的語句轉(zhuǎn)換為目標(biāo)語言,必須對語句的完整含義進(jìn)行解碼,分析其含義,然后將源語句的含義編碼為目標(biāo)語句。類似地,此處也可以將源語句的含義編碼為圖像和字幕對,使之傳達(dá)與源語句相同的含義或情感,從而將語句翻譯成「?!?。受該方法的啟發(fā),研究者提出了一種端到端的編碼-解碼模型「memeBot」,可面向任意給定的語句生成 meme 圖。同時(shí)在訓(xùn)練的過程中,研究者創(chuàng)建了首個(gè)大型 meme 圖字幕數(shù)據(jù)集。
給出句子「I am curiously waiting for my father to cook supper tonight」,memeBot 使用 meme 模板選擇合適的圖,然后用字幕生成器生成恰當(dāng)?shù)淖帜唬瑥亩?meme 表情包。如何用 memeBot 制作表情包?「memeBot」是一種端到端的神經(jīng)與概率架構(gòu)。該模型共有兩個(gè)組成部分,如下圖所示,首先是使用 meme 模版選擇模塊,根據(jù)輸入語句確定用哪張圖;然后是 meme 字幕生成器,生成合適的字幕。
meme 模版選擇模塊基于 BERT、XLNet、Roberta 等 trans-former 架構(gòu)的預(yù)訓(xùn)練語言表征被廣泛用于自然語言理解任務(wù)。這些模型在針對相應(yīng)任務(wù)微調(diào)之后,均達(dá)到了新的 SOTA 水平。該研究在 meme 模版選擇任務(wù)上,使用線性神經(jīng)網(wǎng)絡(luò)對預(yù)訓(xùn)練語言表征模型進(jìn)行了微調(diào)。在訓(xùn)練過程中,通過使用公將依據(jù)給定語句選擇正確模版的概率最大化。其中θ_1 表示 meme 模版選擇參數(shù),T 表示模版,S 是輸入句。meme 字幕生成研究者借鑒了降噪編碼器的方法,通過破壞輸入字幕來訓(xùn)練 meme 字幕生成器,并使用詞性標(biāo)注器(POS Tagger)來提取輸入字幕的詞性。研究者使用 POS 向量來對輸入字幕進(jìn)行遮罩,僅把名詞短語和動(dòng)詞短語作為輸入傳遞給 meme 字幕生成器。破壞數(shù)據(jù)的目的是讓模型從現(xiàn)有的字幕中學(xué)習(xí) meme 生成,并在推斷過程中將基于給定輸入語句生成 meme 的過程進(jìn)行泛化。meme 字幕生成器模型使用了 transformer 架構(gòu),通過對選定的 meme 模版和輸入語句執(zhí)行多頭縮放點(diǎn)積注意力,來創(chuàng)建給定輸入語句的 meme 嵌入。transformer 解碼器首先對預(yù)期的字幕執(zhí)行 masked multi-head attention,然后在編碼的 meme 嵌入和 masked multi-head attention 的輸出之間執(zhí)行多頭縮放點(diǎn)積注意力(如圖 3 所示)。這使得 meme 字幕生成器能夠?qū)W習(xí)輸入語句、所選 meme 模版和預(yù)期 meme 字幕之間的依賴關(guān)系。此外,該研究還使用公式來優(yōu)化 transformer。其中θ_2 表示 meme 字幕生成器的參數(shù),C 表示 meme 字幕,M 是基于 transformer 編碼器獲得的 meme 嵌入。數(shù)據(jù)集模型訓(xùn)練所用數(shù)據(jù)有兩個(gè)來源,一個(gè)是全球最大的 meme 圖片生成網(wǎng)站「imgflip」,另一個(gè)就是眾所周知的 meme 圖片集合地「推特」。為了爬取更多的數(shù)據(jù),研究者開發(fā)了一款網(wǎng)絡(luò)爬蟲工具,盡可能多地收集 meme 圖。該研究最終創(chuàng)建的數(shù)據(jù)集包含源自 24 個(gè)「經(jīng)典沙雕梗」的 177942 個(gè) meme 字幕。表 1 展示了數(shù)據(jù)樣本的組成部分,附錄 A 展示了訓(xùn)練所用的「經(jīng)典源圖」,圖 4 為 meme 字幕主題的分布情況。
表 1:meme 字幕數(shù)據(jù)集中的樣本示例,包括模版名稱(Template name)、字幕(Caption)、meme 圖(Meme Image)三部分。
附錄 A:實(shí)驗(yàn)所用 meme 字幕數(shù)據(jù)集中的的模版和圖像。
圖 4。此外,研究者收集了推特平臺的推文,用以評估 memeBot 在線上社交互動(dòng)中通過語句生成 meme 的效力。研究者在關(guān)鍵詞「Coronavirus」查詢結(jié)果中隨機(jī)抽取 6000 條推文,從中選擇了 1000 條非負(fù)面情緒的推文。目的是通過輸入推文讓模型生成 meme 圖,并評估生成結(jié)果是否與推文內(nèi)容相關(guān)。memeBot 效果如何該研究在訓(xùn)練、驗(yàn)證和測試階段的數(shù)據(jù)集分別包括 142341、17802 和 17799 個(gè)樣本,評估內(nèi)容包括模版選擇模塊在選擇兼容模版時(shí)的性能、字幕生成器的生成效力等。首先,研究者對 BERT、XLNet 和 Roberta 幾種預(yù)訓(xùn)練語言表征模型進(jìn)行了微調(diào),并在 meme 字幕測試數(shù)據(jù)集上測試了模型的 meme 模版選擇性能,結(jié)果如表 2 所示。
表 2:加粗部分為最佳分?jǐn)?shù),精確度和 F1 兩項(xiàng)指標(biāo)是越高越好,損失則越低越好。研究者使用了性能表現(xiàn)最佳的 Roberta_base 模型作為 meme 生成 pipeline 中的模版選擇模塊。然后,在字幕生成任務(wù)中,研究者使用了兩個(gè)變體「MT2MC」和「SMT2MC」(SMT2MC 也有兩個(gè)變體),分別代表「基于模版生成字幕」和「基于輸入語句及模版生成字幕」。下圖是字幕生成器的變體所生成的 meme 示例。
可以看出,MT2MC 根據(jù)給定的 meme 模版隨機(jī)生成字幕,與輸入語句無關(guān)聯(lián),SMT2MC 變體生成的 meme 字幕則與輸入語句有語境關(guān)聯(lián)。在 SMT2MC 的變體中,以名詞短語和動(dòng)詞短語作為輸入生成的字幕能夠更好地還原輸入語句的本意。在評估時(shí),研究者使用了 BLEU 分?jǐn)?shù)來評估生成字幕的質(zhì)量。鑒于 meme 生成沒有固定的指標(biāo),研究者還引入了一組評估人員進(jìn)行「主觀評價(jià)」,評估的維度包括圖片與字幕的連貫性和相關(guān)性等等,分?jǐn)?shù)在 1-4 分不等。
BLEU 值以及人類評估得分情況。
相關(guān)性與連貫性分?jǐn)?shù)的定性比較。研究者還設(shè)計(jì)了一個(gè)實(shí)驗(yàn),來評估 meme 生成結(jié)果在線上社交環(huán)境中的效力:
表 5:推特?cái)?shù)據(jù)中的人類評估分?jǐn)?shù)。相關(guān)性和一致性指標(biāo)滿分為 4 分,「User Likes」一項(xiàng)代表喜歡該生成結(jié)果的人數(shù)占總體的百分比。
圖 9:SMT2MC-NP+V 變體生成的 meme 結(jié)果。最后,研究者也提到,meme 的生成效果評價(jià)因人而異,很難通過預(yù)定義的指標(biāo)進(jìn)行評估。接下來他們會(huì)將繼續(xù)拓展這一方面的研究,比如將 meme 引入社交媒體流,并根據(jù) meme 在人群中的傳播對其進(jìn)行評估。meme 傳播率和傳播人群可用于強(qiáng)化訓(xùn)練,生成更高質(zhì)量和更具創(chuàng)意的 meme。為模型瘦身,飛槳PaddleSlim提供了從剪枝、量化到輕量級神經(jīng)網(wǎng)絡(luò)架構(gòu)搜索與自動(dòng)模型壓縮等一系列高效工具
以上就是關(guān)于辦pos機(jī)表情包,那些讓我半夜偷偷收藏的沙雕表情包的知識,后面我們會(huì)繼續(xù)為大家整理關(guān)于辦pos機(jī)表情包的知識,希望能夠幫助到大家!
![](/style/images/zhouzong.jpg)