優(yōu)勝?gòu)倪x擇開(kāi)始,我們是您最好的選擇!—— 中州期刊聯(lián)盟(新鄉(xiāng)市博翰文化傳媒有限公司)
0373-5939925
2851259250@qq.com
我要檢測(cè) 我要投稿 合法期刊查詢

人工智能時(shí)代算法傳播的倫理失范問(wèn)題及其治理對(duì)策研究

作者:樊小穎來(lái)源:《聲屏世界》日期:2024-10-17人氣:340

隨著計(jì)算機(jī)算法的進(jìn)步,我們逐步步入到了人工智能的時(shí)代,2016年作為人工智能元年,人工智能技術(shù)以及相關(guān)的應(yīng)用迎來(lái)了里程碑式的突破。新聞傳播行業(yè)與人工智能技術(shù)的連接也越來(lái)越緊密,計(jì)算機(jī)算法推動(dòng)了新聞的自動(dòng)化生產(chǎn)和多元傳播,重塑了媒體的內(nèi)容生產(chǎn)方式及傳播工作流程。算法傳播所導(dǎo)致的倫理失范問(wèn)題較之傳統(tǒng)媒體時(shí)代有所不同。傳統(tǒng)媒體時(shí)代的倫理失范問(wèn)題更多的是因?yàn)閭鞑フ咧鹄鴮?dǎo)致的黃色暴力新聞的發(fā)布以及媒介尋租等現(xiàn)象,而算法傳播使得倫理失范問(wèn)題更加頻發(fā),還因?yàn)榇髷?shù)據(jù)技術(shù)的成熟出現(xiàn)了隱私權(quán)被侵犯、低俗新聞泛濫、媒介審判等問(wèn)題。因此本文分析了算法傳播所導(dǎo)致的一系列倫理失范問(wèn)題,并從傳播主體、傳播渠道、技術(shù)本身幾個(gè)方面探究其原因,給出針對(duì)性規(guī)范對(duì)策,以期最大程度上減小算法傳播導(dǎo)致的倫理失范現(xiàn)象,讓人工智能技術(shù)在主流價(jià)值觀的引導(dǎo)下發(fā)揮其自身優(yōu)勢(shì)為新聞媒體行業(yè)服務(wù)。

算法傳播導(dǎo)致的倫理失范問(wèn)題的表現(xiàn)

“信息繭房”加劇受眾心理認(rèn)知失衡。算法推薦是通過(guò)監(jiān)控用戶對(duì)新聞內(nèi)容的瀏覽記錄、閱讀時(shí)長(zhǎng)等數(shù)據(jù)判斷用戶的閱讀偏好從而進(jìn)行量身定制的服務(wù),用戶只會(huì)接收到自己感興趣的內(nèi)容,被大量同質(zhì)化的信息包圍。長(zhǎng)此以往,在算法對(duì)新聞內(nèi)容的層層篩選下,用戶對(duì)信息的接受面越來(lái)越窄化,最終被禁錮在自我認(rèn)知的“信息繭房”中。往往處于這種相對(duì)封閉狀態(tài)下的用戶是不自知的,他們會(huì)以為自己所看到的片面的信息是事實(shí)的全部,并且只能關(guān)注到與自己的想法相似的觀點(diǎn),沉浸在“回音室”當(dāng)中,從而導(dǎo)致認(rèn)知偏差。用戶在一次又一次的尋求認(rèn)同并得到同類群體的肯定后,容易形成盲目的自信和極端主義。斯通納·詹姆斯將這一現(xiàn)象定義為“群體極化”現(xiàn)象,他認(rèn)為群體極化就是團(tuán)體成員一開(kāi)始有某種傾向,在群體決策后變得扭曲并形成極端的觀點(diǎn)。如2023年5月23日的“武漢媽媽”事件,武漢弘橋小學(xué)一名男教師在校內(nèi)駕車時(shí),將一名跑進(jìn)其視角盲區(qū)的一年級(jí)小學(xué)生撞傷,后該學(xué)生因搶救無(wú)效去世。該學(xué)生媽媽在操場(chǎng)哀哭的視頻被傳到網(wǎng)上并不斷發(fā)酵,公眾對(duì)這為媽媽的妝容、穿搭等提出質(zhì)疑,認(rèn)為她有炒作的嫌疑。網(wǎng)絡(luò)大V不斷制造謠言煽動(dòng)公眾情緒,最終引發(fā)了對(duì)該學(xué)生媽媽的網(wǎng)暴。6月2日,這位媽媽因雙重打擊悲痛與欲絕跳樓結(jié)束了自己的生命。受眾在這種惡意的信息繭房中認(rèn)知出現(xiàn)了偏差,對(duì)這位媽媽進(jìn)行了網(wǎng)暴,最終導(dǎo)致了悲劇的發(fā)生。

過(guò)度數(shù)據(jù)抓取形成的“全景監(jiān)獄”。??略凇兑?guī)訓(xùn)與懲罰》中提出了“全景監(jiān)獄”的概念,這一概念由英國(guó)哲學(xué)家的“圓形監(jiān)獄”設(shè)想演變而來(lái)。圓形監(jiān)獄描述的了一種環(huán)形的建筑,四周是被分割成一個(gè)個(gè)小單元的囚房,中間是一座瞭望塔,監(jiān)視者可以在在瞭望塔上看到囚犯的一舉一動(dòng),而囚犯卻看不到監(jiān)視者。??抡J(rèn)為在當(dāng)代社會(huì),這種監(jiān)視不止發(fā)生在監(jiān)獄這種封閉的地方,在整個(gè)社會(huì)都存在“被監(jiān)視”的情況。在人工智能時(shí)代??碌摹叭氨O(jiān)獄”理論得到了有力的驗(yàn)證。數(shù)據(jù)是算法技術(shù)最核心的資源,只有對(duì)數(shù)據(jù)進(jìn)行大量挖掘和監(jiān)控,才能進(jìn)行自動(dòng)化的生產(chǎn)和推送。用戶在網(wǎng)絡(luò)上所有的行為都會(huì)被數(shù)據(jù)化處理,個(gè)人隱私隨時(shí)隨地都在被監(jiān)控。而用戶為了獲得自己所偏好的信息就必須將自己的私密數(shù)據(jù)轉(zhuǎn)讓比如各種瀏覽記錄、轉(zhuǎn)贊評(píng)等。很多同公司旗下的APP數(shù)據(jù)也會(huì)互通,比如你在某社交類APP搜索某個(gè)產(chǎn)品的功能口碑等,很快這款產(chǎn)品就會(huì)出現(xiàn)在你的某個(gè)購(gòu)物APP的首頁(yè)。雖然各個(gè)app都推出了一些安全隱私設(shè)置,但是由于平臺(tái)和用戶之間的權(quán)力不對(duì)等,平臺(tái)對(duì)用戶的隱私保護(hù)條款往往都含糊不清且篇幅冗長(zhǎng),讓用戶無(wú)法清晰的知道自己會(huì)在哪個(gè)步驟會(huì)泄露自己的隱私。2023年1月4日美國(guó)《華盛頓郵報(bào)》報(bào)道Twitter平臺(tái)有2.35億個(gè)用戶賬號(hào)以及注冊(cè)賬號(hào)所用的電子郵箱地址被公布在一個(gè)線上黑客論壇上,這些被泄露賬號(hào)的用戶都有可能面臨身份曝光、敲詐勒索、電郵詐騙等風(fēng)險(xiǎn),而這已經(jīng)不是Twitter第一次被爆出隱私泄露事件。

低俗新聞泛濫瓦解傳統(tǒng)新聞價(jià)值。人工智能和算法推薦技術(shù)在新聞生產(chǎn)與分發(fā)的過(guò)程中大行其道,在新聞內(nèi)容完全被用戶的偏好所左右后,新聞價(jià)值逐漸被瓦解。尼爾·波茲曼早在《童年的消逝》一書(shū)中就提出在電視時(shí)代,兒童和成年人之間的變得模糊,兒童被迫進(jìn)入成人的性愛(ài)、暴力中,童年在提前消逝。在其另一本著作《娛樂(lè)至死》中他認(rèn)為一切公眾話語(yǔ)都以?shī)蕵?lè)的方式呈現(xiàn),變得脫離理性、膚淺、碎片化,最終娛樂(lè)至死。雖然低俗化的新聞在傳統(tǒng)媒體時(shí)期已經(jīng)存在,但是算法技術(shù)的出現(xiàn)使得低俗新聞更加泛濫,已經(jīng)演變成了危害社會(huì)風(fēng)氣的公共問(wèn)題?,F(xiàn)在判斷新聞價(jià)值的標(biāo)準(zhǔn)只有瀏覽量、點(diǎn)贊量、評(píng)論量,為了能夠讓新聞獲得更多的關(guān)注度,某些平臺(tái)就會(huì)通過(guò)算法來(lái)迎合部分用戶的獵奇心理,各種標(biāo)題黨、暗含色情暴力的新聞層出不窮,而真正重要的新聞卻被這些“趣味”新聞給淹沒(méi)。平臺(tái)利用人性的弱點(diǎn) 不斷強(qiáng)化這樣的新聞內(nèi)容輸出,讓這種低俗垃圾新聞奪走用戶所有的關(guān)注。對(duì)于缺乏媒介素養(yǎng)的用戶,特別是心智發(fā)展尚不成熟的青少年來(lái)說(shuō)就像“吸毒”一樣侵蝕他們的心智,這些低俗新聞會(huì)給他們的心理、思維和行為帶來(lái)錯(cuò)誤引導(dǎo),也慢慢瓦解了主流的新聞價(jià)值觀。

算法傳播導(dǎo)致的倫理失范問(wèn)題的成因

人工智能時(shí)代專業(yè)媒體的主體地位被削弱。人工智能時(shí)代,算法技術(shù)以及各個(gè)新聞聚合平臺(tái)的興起極大地削弱了傳統(tǒng)專業(yè)媒體的主體地位。在新興技術(shù)的賦權(quán)下,傳播權(quán)力下放給了每一個(gè)受眾,任何人都可以在公共社交平臺(tái)發(fā)聲。而這些用戶都是沒(méi)有接受過(guò)專業(yè)的職業(yè)訓(xùn)練的,很多人缺乏媒介素養(yǎng),對(duì)于新聞事實(shí)的報(bào)道比較片面。雖然這使得新聞報(bào)道有了更多地角度,但是許多人會(huì)有意無(wú)意地濫用自己的話語(yǔ)權(quán),從而導(dǎo)致各種謠言滿天飛,影響社會(huì)輿論地走向。其次,各類新聞聚合平臺(tái)承擔(dān)起了新聞發(fā)布和編輯地責(zé)任,專業(yè)媒體的分發(fā)權(quán)轉(zhuǎn)移到了平臺(tái)媒體地手里。“今日頭條”的CEO張一鳴曾在公開(kāi)采訪中表示“你關(guān)心的,才是頭條”這也是眾多新聞聚合平臺(tái)的準(zhǔn)則。為了大規(guī)模提高平臺(tái)的新聞分發(fā)效率,實(shí)現(xiàn)利益最大化,他們通過(guò)算法給用戶進(jìn)行量身定制,實(shí)現(xiàn)精準(zhǔn)推送,這樣的新聞推送模式使得新聞審核變得愈發(fā)困難。在傳統(tǒng)媒體時(shí)代把關(guān)人是新聞生產(chǎn)和傳播環(huán)節(jié)中非常重要的一環(huán),他們會(huì)從新聞內(nèi)容、價(jià)值、乃至整個(gè)報(bào)道的過(guò)程中把關(guān)新聞,從而與主流價(jià)值觀相一致但之前的新聞把關(guān)活動(dòng)之所以可以進(jìn)行,是因?yàn)樾侣劸哂泄残?,大多?shù)地用戶可以接觸到,但是算法分發(fā)下新聞的這種公共性被消解了,不同地用戶多接收到的信息有著明顯的不同,比如抖音平臺(tái)同一條視頻下方的評(píng)論區(qū)男女用戶看到的不同評(píng)論的權(quán)重完全不一樣。算法在無(wú)形中削弱了專業(yè)媒體的主體地位,從而引發(fā)一系列的媒介倫理失范問(wèn)題。

算法工具理性與新聞價(jià)值理性的失衡。算法技術(shù)被引入中國(guó),新聞的生產(chǎn)和傳播開(kāi)始改變,算法強(qiáng)大的數(shù)據(jù)運(yùn)算和分析能力能夠幫助新聞媒體更好的分析市場(chǎng)的變化,了解用戶的需求,并且極大地拓展寬了新聞反饋渠道,與傳統(tǒng)媒體相比是一大進(jìn)步。馬克斯·韋伯曾提出了“工具理性”一概念,工具理性強(qiáng)調(diào)的是把工具的功效發(fā)揮到最大,算法在新聞地生產(chǎn)傳播工程中,既能滿足用戶地個(gè)性化需求,又能兼顧新聞的及時(shí)性和互動(dòng)性,充分體現(xiàn)了其“工具理性”,但新聞的“價(jià)值理性”并未得到同樣的發(fā)揮。一些新聞聚合類平臺(tái)過(guò)度依賴無(wú)限放大算法的工具理性,為了快速獲取公眾關(guān)注度、吸引流量,只靠標(biāo)題來(lái)吸引眼球,網(wǎng)絡(luò)平臺(tái)上充斥著各種“震驚xxx”“不看xx后悔一輩子”等各種聳人聽(tīng)聞的標(biāo)題。這些新聞平臺(tái)完全放棄了新聞的質(zhì)量?jī)?nèi)容以及人文精神,及新聞的“價(jià)值理性”?!皟r(jià)值理性”強(qiáng)調(diào)的是倫理價(jià)值,是對(duì)人文主義精神的保護(hù)。而算法顯然是沒(méi)有情感和意識(shí)的,它只能將人類的一切活動(dòng)和行為都轉(zhuǎn)化成冷冰冰的數(shù)據(jù),但新聞并不是單純地追求即時(shí)性和熱度,更重要的是傳遞真善美的價(jià)值觀,真正好的新聞是有溫度的。技術(shù)本身并沒(méi)有是非對(duì)錯(cuò)之分,重要的是我們?cè)撊绾伟l(fā)揮自身的主觀能動(dòng)性去使用技術(shù),如果我們只是被算法牽著鼻子走,就會(huì)陷入“劣幣驅(qū)逐良幣”的惡性循環(huán)中。

商業(yè)化平臺(tái)過(guò)度逐利缺乏主體責(zé)任。今日頭條、一點(diǎn)資訊等新聞平臺(tái),都是為了獲取高額利潤(rùn)而發(fā)展的。從一開(kāi)始,他們就通過(guò)植入廣告來(lái)賺取利潤(rùn),從而在新聞產(chǎn)業(yè)中獲得一席之地。這些媒體平臺(tái)的創(chuàng)辦者,都把經(jīng)濟(jì)收入視為其主要目標(biāo)。這一管理制度在一定程度上激發(fā)了平臺(tái)的發(fā)展?jié)撃埽餐宫F(xiàn)了我國(guó)市場(chǎng)經(jīng)濟(jì)的優(yōu)勢(shì),但過(guò)分強(qiáng)調(diào)經(jīng)濟(jì)利益,極大地削弱了其提高內(nèi)容品質(zhì)的動(dòng)力。這些媒體的重點(diǎn)是如何獲取更多的點(diǎn)擊率和關(guān)注度,忽略了記者的職業(yè)道德。在“眼球經(jīng)濟(jì)”這片沃土上,算法能夠迅速、不斷地從各處“搬運(yùn)”信息,并盡可能地吸引著用戶,讓他們可以不停地從網(wǎng)頁(yè)中獲得信息,用戶不需要考慮自己要看什么,算法會(huì)根據(jù)用戶閱讀記錄、興趣等特點(diǎn),自動(dòng)地向用戶提供信息。為了吸引更多的顧客,獲得更多的利潤(rùn),他們的新聞品質(zhì)和內(nèi)容都變得低俗化、娛樂(lè)化。同時(shí),為了獲得更多的利潤(rùn),很多媒體都向用戶推送各種形式的廣告,這種做法是違背職業(yè)道德和社會(huì)道德的。另外,一些含有色情、暴力等負(fù)面新聞的報(bào)道,也給新聞界行業(yè)帶來(lái)污染,而一些娛樂(lè)新聞,為了滿足網(wǎng)友對(duì)明星的隱私的窺視,大肆炒作、消費(fèi)網(wǎng)紅、明星,這使得各種媒介倫理失范的問(wèn)題頻發(fā)。

對(duì)算法傳播媒介倫理的規(guī)范對(duì)策

法律加強(qiáng)對(duì)新聞的監(jiān)管機(jī)制。我國(guó)目前并沒(méi)有制定專門新的聞法,現(xiàn)有的《中新聞工作者職業(yè)道德準(zhǔn)則》等文件都是用來(lái)規(guī)范新聞的從業(yè)人員的,對(duì)于飛速發(fā)展的新聞行業(yè)來(lái)說(shuō),我國(guó)的法律制度還是比較滯后的。很多時(shí)候所出現(xiàn)的新聞倫理失范的問(wèn)題無(wú)法可依,人工智能在新聞行業(yè)的發(fā)展更使得隱私泄露、追責(zé)困難等問(wèn)題更加頻發(fā)。好在,我國(guó)針對(duì)于網(wǎng)絡(luò)安全、數(shù)據(jù)安全、個(gè)人隱私等重要議題的法律界定在不斷完善。2017年6月1日我國(guó)正式施行了《中華人民共和國(guó)網(wǎng)絡(luò)安全法》,其中二十二條明確規(guī)定了:網(wǎng)絡(luò)產(chǎn)品、服務(wù)具有收集用戶信息功能的,其提供者應(yīng)當(dāng)向用戶明示并取得同意。2021年9月1日正式施行《中華人民共和國(guó)數(shù)據(jù)安全法》,其中第六條規(guī)定:各地區(qū)、各部門對(duì) 本地區(qū)、本部門工作中收集和產(chǎn)生的數(shù)據(jù)及數(shù)據(jù)安全負(fù)責(zé)。2021年11月1日正式施行《中華人民共和國(guó)個(gè)人信息保護(hù)法》,其中第十條規(guī)定:任何組織、個(gè)人不得非法收集、使用、加工、傳輸他人個(gè)人信息,不得非法買賣、提供或者公開(kāi)他人個(gè)人信息。這些法律條例為處理商業(yè)平臺(tái)對(duì)用戶數(shù)據(jù)的過(guò)度挖掘提供了明確的法律規(guī)則,讓個(gè)人信息泄露問(wèn)題能夠有法可依。不過(guò)新技術(shù)還在不斷的涌現(xiàn),很多相關(guān)案例仍游走在法律的灰色地帶無(wú)法解決。互聯(lián)網(wǎng)業(yè)務(wù)處于各種監(jiān)管體系的夾縫之中,導(dǎo)致很多相關(guān)責(zé)任方互相推諉,因此對(duì)于各方的權(quán)責(zé)劃分仍是我國(guó)法律建設(shè)和更新的方向。

打開(kāi)算法“黑箱”提高透明度。人工智能時(shí)代的法律邊界一定程度上規(guī)范了算法技術(shù)在新聞傳播中的底線,但是對(duì)于技術(shù)本身的邊界確認(rèn)還是很難落實(shí)的?!凹夹g(shù)中立論”認(rèn)為,技術(shù)本身只是按照運(yùn)行邏輯來(lái)完成任務(wù),不應(yīng)該承擔(dān)任何價(jià)值觀層面的責(zé)任。但是技術(shù)從來(lái)都不是獨(dú)立運(yùn)行的,是“人”創(chuàng)造的技術(shù),那么其本身就會(huì)存在偏見(jiàn)或傾向。比如,智能識(shí)別系統(tǒng)認(rèn)為“所有含有裸體的圖片都涉及色情”,這就是一種偏見(jiàn),難道諸如世界名畫(huà)《馬背上的夫人》等也要被貼上色情的標(biāo)簽?既然技術(shù)無(wú)法做到絕對(duì)的中立,那就需要將技術(shù)透明化。提高算法透明度是一道重要的技術(shù)道德問(wèn)題。陳昌鳳認(rèn)為,提高算法透明化的途徑應(yīng)該建立在“開(kāi)放倫理”的基礎(chǔ)上,也就是強(qiáng)調(diào)用戶的意識(shí)。在算法新聞中,用戶既是用戶,又是廠商,所以要把用戶的認(rèn)知、態(tài)度和需求融入到算法透明度的話語(yǔ)結(jié)構(gòu)中,同時(shí)用戶也是算法透明度的檢驗(yàn)和問(wèn)責(zé)的對(duì)象。當(dāng)然完全公開(kāi)算法內(nèi)容可能會(huì)損害商業(yè)利益,也可能被不法人員入侵篡改程序,因此只需做到以下三點(diǎn)。第一,公開(kāi)算法是如何收集、關(guān)聯(lián)和解釋數(shù)據(jù)的生成,其次是將算法透明度與其他道德準(zhǔn)則如問(wèn)責(zé)、同意、表達(dá)自由等的關(guān)系公之于眾,三是提供技術(shù)可操作性的保證,比如通過(guò)算法審計(jì)、發(fā)布用戶服務(wù)條款、制定有關(guān)道德準(zhǔn)則等措施來(lái)保證算法的透明度。

平臺(tái)自身嚴(yán)格監(jiān)管承擔(dān)主體責(zé)任。我國(guó)將新聞媒體視為黨和政府的“喉舌”,新聞傳播事業(yè)是以馬克思主義新聞?dòng)^作為指導(dǎo)思想的。而如今以經(jīng)濟(jì)利益為主要目標(biāo)的新聞聚合平臺(tái),只注重用戶規(guī)模、平臺(tái)流量,完全把新聞?wù)嬲墓δ芎椭髁鲀r(jià)值觀拋之腦后。人民日?qǐng)?bào)曾多次發(fā)文批評(píng)以算法分發(fā)為核心運(yùn)營(yíng)模式的新聞聚合平臺(tái)存在大量低俗內(nèi)容,并且擠壓了人工編輯的生存空間。中央網(wǎng)信辦等相關(guān)監(jiān)管部門也出臺(tái)了各項(xiàng)管制規(guī)定,開(kāi)展了多次的整治行動(dòng),但是平臺(tái)的新聞倫理失范問(wèn)題依舊頻頻發(fā)生。因此在不斷完善法律法規(guī)的同時(shí),還需要制定相應(yīng)的行業(yè)規(guī)范,無(wú)論哪個(gè)行業(yè)只靠外在的約束來(lái)管制是不會(huì)長(zhǎng)久的,只有自發(fā)的進(jìn)行自我約束,行業(yè)內(nèi)相互監(jiān)督,形成行業(yè)規(guī)范,才能真正杜絕新聞倫理失范問(wèn)題的發(fā)生。人工智能技術(shù)在不斷的發(fā)展,各種新問(wèn)題還是會(huì)不斷涌現(xiàn),新聞聚合平臺(tái)只有恪守本分,堅(jiān)持以馬克思主義為指導(dǎo)思想,不觸碰法律紅線,嚴(yán)格自我監(jiān)督承擔(dān)主體責(zé)任,才能長(zhǎng)久地發(fā)展下去。

結(jié)語(yǔ)

人工智能時(shí)代算法技術(shù)對(duì)新聞行業(yè)帶來(lái)了巨大地變革。本文重點(diǎn)探討了,算法技術(shù)在新聞傳播領(lǐng)域地應(yīng)用所引發(fā)的新聞倫理失范的問(wèn)題。但是,從人類和技術(shù)的發(fā)展,到倫理問(wèn)題的研究,技術(shù)如何為人類服務(wù),如何控制技術(shù)帶來(lái)的影響,都是學(xué)術(shù)界永恒的話題。目前算法技術(shù)在新聞傳播的過(guò)程當(dāng)中仍然面臨許多倫理風(fēng)險(xiǎn)。但是我相信,只要不斷加強(qiáng)我國(guó)的法律法規(guī)建設(shè),提高算法技術(shù)的透明度、平臺(tái)加強(qiáng)自身監(jiān)管,在加上用戶和媒體從業(yè)人員的媒介素養(yǎng)不斷提升,算法傳播所導(dǎo)致的新聞的倫理失范問(wèn)題就一定能夠逐步解決。


文章來(lái)源:  《聲屏世界》   http://m.k2057.cn/w/xf/24481.html

網(wǎng)絡(luò)客服QQ: 沈編輯

投訴建議:0373-5939925????投訴建議QQ:

招聘合作:2851259250@qq.com (如您是期刊主編、文章高手,可通過(guò)郵件合作)

地址:河南省新鄉(xiāng)市金穗大道東段266號(hào)中州期刊聯(lián)盟 ICP備案號(hào):豫ICP備2020036848

【免責(zé)聲明】:中州期刊聯(lián)盟所提供的信息資源如有侵權(quán)、違規(guī),請(qǐng)及時(shí)告知。

版權(quán)所有:中州期刊聯(lián)盟(新鄉(xiāng)市博翰文化傳媒有限公司)

關(guān)注”中州期刊聯(lián)盟”公眾號(hào)
了解論文寫(xiě)作全系列課程

核心期刊為何難發(fā)?

論文發(fā)表總嫌貴?

職院?jiǎn)挝话l(fā)核心?

掃描關(guān)注公眾號(hào)

論文發(fā)表不再有疑惑

論文寫(xiě)作全系列課程

掃碼了解更多

輕松寫(xiě)核心期刊論文

在線留言