亚洲欧美精品沙发,日韩在线精品视频,亚洲Av每日更新在线观看,亚洲国产另类一区在线5

<pre id="hdphd"></pre>

  • <div id="hdphd"><small id="hdphd"></small></div>
      學(xué)習(xí)啦>新聞資訊>科技>

      人工智能你怎么看

      時(shí)間: 岳彬1043 分享

        未來(lái)的生活肯定會(huì)有人工智能存在,那么你對(duì)人工智能到底怎么看呢?下面是學(xué)習(xí)啦小編為你整理的人工智能你怎么看,供大家閱覽!

        人工智能你怎么看?

        想象一下 2020 年的普通一天,人工智能助手喚你起床,為你端上已準(zhǔn)備好的早餐,都是你最喜歡的食物。在晨跑中,播放器會(huì)自動(dòng)播放符合你喜好的最新歌曲。上班路上,電子助手會(huì)根據(jù)你過(guò)去的閱讀品味,自動(dòng)向你推送新聞以供閱讀。

        你閱覽著新聞,注意到總統(tǒng)選舉馬上就要來(lái)了,人工智能參考了你過(guò)去的政治看法和本州其他選民的意見(jiàn),向你推薦了一位民主黨候選人。你的手機(jī)上,一條彈出信息詢問(wèn)你是否需要 AI 助手幫你準(zhǔn)備投票所需文件,你點(diǎn)擊「同意」,然后關(guān)掉屏幕,繼續(xù)自己的生活。

        人工智能:呆板的數(shù)據(jù)機(jī)器

        AI 個(gè)人助手在幾年前已經(jīng)走進(jìn)現(xiàn)實(shí),對(duì)于我們來(lái)說(shuō),把履行公民義務(wù)的重任交與它們還是顯得有些不合適——即使人工智能幾乎總是知道在特定的時(shí)刻給我們最好的建議。通過(guò)足量的數(shù)據(jù)學(xué)習(xí),人工智能可以為每個(gè)人提供準(zhǔn)確的,個(gè)性化的建議,甚至比你最親密朋友的建議更完美。

        Alphabet 董事長(zhǎng)埃里克·施密特堅(jiān)信,人工智能的發(fā)展會(huì)讓每個(gè)人都會(huì)變得更聰明,更有能力,更為成功。人工智能已經(jīng)展現(xiàn)出了巨大潛力,有希望幫助解決人類社會(huì)面臨的各種復(fù)雜挑戰(zhàn),如氣候變暖,人口增長(zhǎng)和人類發(fā)展。

        然而機(jī)器展現(xiàn)出的潛力也帶來(lái)了擔(dān)憂。有調(diào)查顯示,34% 的人表示自己害怕人工智能,而 24% 的人認(rèn)為人工智能會(huì)對(duì)社會(huì)造成負(fù)面影響。相比較未知的恐懼,人工智能對(duì)于數(shù)據(jù)的依賴帶來(lái)了現(xiàn)實(shí)的隱患,GWI 的研究表明,63% 的民眾擔(dān)心他們的個(gè)人信息被科技公司濫用。最近 Oxford Internet Institute 的研究顯示,人們對(duì)于讓人工智能助手打理自己生活的方式持謹(jǐn)慎態(tài)度,特別是當(dāng)這些助理提出自己的建議,卻又不告訴你它推理過(guò)程的時(shí)候。

        在這里,我們沒(méi)有必要混淆數(shù)學(xué)與魔法。人工智能并不是在你手機(jī)里生活的神秘生物。但我們往往會(huì)忘記,人工智能一直在讀取我們的個(gè)人資料,通過(guò)復(fù)雜的數(shù)學(xué)模型,自動(dòng)推斷我們的興趣、位置、習(xí)慣、財(cái)務(wù)和健康。

        開(kāi)發(fā)者的角色

        當(dāng)前關(guān)于算法與人類的很多討論都圍繞著設(shè)計(jì)者在算法中的作用——人工智能創(chuàng)造者的潛在意識(shí)和偏差是否會(huì)被編碼進(jìn)幫我們做出決定的算法中。很多人擔(dān)心開(kāi)發(fā)者的個(gè)人偏見(jiàn)會(huì)被帶入算法,其中一點(diǎn)點(diǎn)微妙的歧視就會(huì)讓部分人群的利益受到侵害——也許還有更壞的結(jié)果,科技平臺(tái)會(huì)演變成弱勢(shì)群體難以逾越的門(mén)檻。即使算法和寫(xiě)算法的人沒(méi)有偏見(jiàn),沒(méi)有人能夠保證訓(xùn)練算法的數(shù)據(jù)中一切都是平等的,現(xiàn)實(shí)世界本身存在著偏見(jiàn),數(shù)據(jù)集中的內(nèi)容也會(huì)對(duì)人工智能框架產(chǎn)生影響。

        持這一觀點(diǎn)的決策者和專家們經(jīng)常誤解人工智能算法出錯(cuò)的原因。他們不斷指責(zé)開(kāi)發(fā)者,卻忽略了自我學(xué)習(xí)系統(tǒng)的局限性。將錯(cuò)誤推給別人是一種自然反應(yīng),特別是在你無(wú)法理解這些技術(shù)時(shí)。算法的偏差很少來(lái)自于開(kāi)發(fā)它們的工程師。事實(shí)上,在大部分情況下,問(wèn)題的根源出自訓(xùn)練算法的數(shù)據(jù),這才是構(gòu)建未來(lái)人工智能社會(huì)所要擔(dān)心的真正危險(xiǎn)。

        算法決定論

        回想一下機(jī)器學(xué)習(xí)到底是怎么工作的,通過(guò)應(yīng)用統(tǒng)計(jì)學(xué)技術(shù),我們可以開(kāi)發(fā)自動(dòng)識(shí)別數(shù)據(jù)中特征的算法。為了達(dá)到這個(gè)目的,系統(tǒng)需要經(jīng)過(guò)巨大數(shù)據(jù)集的訓(xùn)練,訓(xùn)練模型的數(shù)據(jù)越多,預(yù)測(cè)準(zhǔn)確率越高。

        在個(gè)性化數(shù)字應(yīng)用中,這些統(tǒng)計(jì)學(xué)習(xí)技術(shù)被用來(lái)建立算法,為用戶提供個(gè)性化服務(wù),計(jì)算機(jī)閱讀了我們的使用模式、品味、偏好、人格特征和社交圖譜,隨后建立起對(duì)于人類的數(shù)字觀感。計(jì)算機(jī)形成的社交身份并不基于你的個(gè)性或選擇,相反,這種虛擬身份來(lái)自于你的可統(tǒng)計(jì)數(shù)據(jù)點(diǎn),和它們的機(jī)器解釋。這種代替,無(wú)論多么復(fù)雜,都是人工智能對(duì)人類的不完美數(shù)字表達(dá)。

        人工智能只能查找歷史數(shù)據(jù),為用戶所需做出建議。這就是為什么今年 8 月,一個(gè)視覺(jué)識(shí)別神經(jīng)網(wǎng)絡(luò)通過(guò) 1400 萬(wàn)張照片的訓(xùn)練后預(yù)測(cè)唐納德·特朗普將會(huì)贏得本屆美國(guó)總統(tǒng)大選。鑒于這個(gè)數(shù)據(jù)集中并沒(méi)有女性美國(guó)總統(tǒng),AI 可能判斷性別是識(shí)別模型的相關(guān)特征。但即使排除這一點(diǎn),如果讓這個(gè)俄羅斯人訓(xùn)練的人工智能投票的話,它肯定會(huì)投特朗普。

        這樣的推論會(huì)導(dǎo)致越來(lái)越僵化的推薦系統(tǒng),它傾向于不斷強(qiáng)化現(xiàn)有的看法,就像社交網(wǎng)絡(luò)中的反射效應(yīng)一般?!?jìng)€(gè)性化」使每個(gè)人都被貼上了標(biāo)簽,讓現(xiàn)實(shí)生活和網(wǎng)絡(luò)世界互相割裂。計(jì)算機(jī)不斷地推薦「你喜歡的」內(nèi)容,用戶獲得的信息在不知不覺(jué)中被算法誤導(dǎo),人類或許在人工智能真正覺(jué)醒之前就已深陷其中了

        動(dòng)態(tài)的人生

        我們的身份是動(dòng)態(tài)的,復(fù)雜而充滿矛盾的。根據(jù)我們的社會(huì)背景,我們總會(huì)擁有者幾個(gè)不同的身份,這意味著我們需要用到幾種不同的 AI 助理——在學(xué)?;蚬ぷ髦械?,在酒吧或教堂里的。

        除了通常的自我介紹,我們?cè)诰W(wǎng)絡(luò)中可能也需要以不同的身份展現(xiàn)自我,和不同的群體展開(kāi)互動(dòng)。我們不希望自己在社交網(wǎng)絡(luò)中被隨意查看,我們也不希望自己在尋找新奇事物時(shí),還要擔(dān)心朋友和家人的窺視。如果我們想要試試不同的社會(huì)身份,會(huì)發(fā)生什么?4Chan 創(chuàng)始人 Chris Poole 說(shuō)道:「這不是你在和誰(shuí)分享的問(wèn)題,這有關(guān)你與他人分享什么樣的內(nèi)容。身份就像一個(gè)棱鏡,別人通過(guò)它來(lái)看你會(huì)呈現(xiàn)無(wú)數(shù)不同的面貌?!?/p>

        區(qū)分不同的自我表達(dá)階層,繪制不同社交環(huán)境下的身份,對(duì)于人工智能而言是一個(gè)巨大挑戰(zhàn)。很多時(shí)候,人類面臨的問(wèn)題不在于算法設(shè)計(jì)——我們連自己是什么都還沒(méi)弄清楚。但人工智能助手總會(huì)給我們一個(gè)答案:關(guān)于過(guò)去的我們。身份的變化在這樣的環(huán)境中變得越來(lái)越難,我們的生活習(xí)慣和信念被自我強(qiáng)化的循環(huán)鎖定,算法構(gòu)建的《土撥鼠日》出現(xiàn)了。

        我們?cè)谌粘I钪性揭蕾囉趥€(gè)性化算法,我們的個(gè)性就會(huì)越被計(jì)算所磨滅,我們所讀,我們所見(jiàn),我們生活的方式都將被機(jī)器所決定。通過(guò)專注于現(xiàn)狀,接管探索信息和偶遇陌生人的渠道,用過(guò)去發(fā)生過(guò)的事情試圖再一次討好自己,這就是算法決定論的世界。

        當(dāng)過(guò)去照進(jìn)未來(lái),人類賴以生存的自發(fā)性,開(kāi)放與進(jìn)取變得逐漸稀缺。溫斯頓·丘吉爾曾經(jīng)的話變成了這樣:我們塑造了算法,然后,算法塑造了我們。

        如何阻止未來(lái)

        在今天,現(xiàn)實(shí)世界中的人工智能應(yīng)用已經(jīng)融入到了日常生活的方方面面——而人們對(duì)這一科技的興趣也是越發(fā)濃厚。但是有兩個(gè)主要的挑戰(zhàn)正讓未來(lái)變得難以觸及。從科技進(jìn)步的角度來(lái)講,不同應(yīng)用之間的數(shù)據(jù)交換上缺乏互通性標(biāo)準(zhǔn),而具備這一點(diǎn)能夠防止徹底的個(gè)性化。要是想要真正有用的話,機(jī)器學(xué)習(xí)系統(tǒng)需要更多的個(gè)人數(shù)據(jù)——而這些數(shù)據(jù)現(xiàn)在都被孤立地分散在一些有競(jìng)爭(zhēng)力的科技公司的專業(yè)數(shù)據(jù)庫(kù)當(dāng)中。那些掌握數(shù)據(jù)的公司就掌握了權(quán)利。一些公司,最著名的比如說(shuō)像 Apple 和 Viv,已經(jīng)開(kāi)始通過(guò)與第三方服務(wù)結(jié)合的實(shí)驗(yàn)來(lái)擴(kuò)大自己的勢(shì)力范圍。最近,一些最大的科技公司宣布了與人工智能研究的主要合作,這樣就可以將益處帶給大多數(shù)人,而不僅僅是少數(shù)人。這將會(huì)對(duì)今后建立對(duì)人工智能的普遍信任至關(guān)重要。

        從社會(huì)的角度來(lái)看,人類似乎對(duì)人工智能的急速發(fā)展有一種莫名的反感。人們擔(dān)心會(huì)失去對(duì)人工智能助手的控制。信任是我們控制能力的一種直接表現(xiàn)。試圖對(duì)生產(chǎn)力進(jìn)行一些微小的改進(jìn),卻要賭上關(guān)系和名譽(yù),大多數(shù)人都不愿意這樣做。

        當(dāng)然,在早期,人工智能助手的行為方式可能并不是它的人類制造者所期望的。有先例證明,一些失敗的人工智能實(shí)驗(yàn)會(huì)減少對(duì)弱人工智能(narrow AI)解決方案和聊天機(jī)器人(conversational bots)的信任。Facebook、微軟和谷歌紛紛在 2016 年建立了它們的機(jī)器人平臺(tái),但過(guò)早呈現(xiàn)在人們面前的人工智能科技,因其有限的功能、應(yīng)用和定制化讓用戶大失所望。

        一直困擾我們的恐懼——人工智能科技的后果,也因?yàn)楹芏嗫苹眯≌f(shuō)中所描述的有意識(shí)、暴戾的人工智能統(tǒng)治世界的反烏托邦場(chǎng)景而加劇。但是我們所面對(duì)的未來(lái),既不會(huì)像是人工智慧網(wǎng)絡(luò)「天網(wǎng)」(Skynet),也不會(huì)像喬治·奧威爾的《1984》里一樣:而更可能會(huì)像是《美麗新世界》(A Brave New World)中所描述的一個(gè)享樂(lè)主義的社會(huì),在那里,科技的地位仍然是需要為普遍的幸福和自我放縱所服務(wù)。

        未來(lái)導(dǎo)向型機(jī)制

        每天都有關(guān)于我們每個(gè)人的成千上萬(wàn)個(gè)算法決策——從 Netflix 的電影推薦、Facebook 上的好友建議,到保險(xiǎn)風(fēng)險(xiǎn)評(píng)估和信用評(píng)分。就各方面而言,人們自己應(yīng)該有責(zé)任對(duì)關(guān)于自己的算法決策進(jìn)行跟蹤和仔細(xì)審查,或者說(shuō)我們可能需要將此編碼到他們使用的數(shù)字平臺(tái)設(shè)計(jì)當(dāng)中?責(zé)任是非常重要的一點(diǎn),準(zhǔn)確來(lái)說(shuō)是因?yàn)樵诖蠓秶鷥?nèi)進(jìn)行估量和實(shí)施是非常困難的。

        因此,在一頭栽進(jìn)這個(gè)未知的領(lǐng)域之前,我們需要回答一個(gè)問(wèn)題:我們想讓人類和人工智能之間的關(guān)系成為什么樣子?反思這些問(wèn)題,我們才會(huì)設(shè)計(jì)出非決策性的、透明并且有責(zé)任感的算法,這些算法能夠辨別出個(gè)體當(dāng)中復(fù)雜、發(fā)展和多方面的本質(zhì)。

        猜你喜歡:

      1.你怎么看待人工智能

      2.對(duì)于人工智能的看法作文

      3.對(duì)于人工智能的看法

      4.對(duì)于人工智能的看法英語(yǔ)作文

      5.人工智能現(xiàn)狀

      6.人工智能將會(huì)怎么影響生活

      7.人工智能都在做什么

      8.人工智能將對(duì)我們有什么影響

      人工智能你怎么看

      未來(lái)的生活肯定會(huì)有人工智能存在,那么你對(duì)人工智能到底怎么看呢?下面是學(xué)習(xí)啦小編為你整理的人工智能你怎么看,供大家閱覽! 人工智能你怎么看? 想象一下 2020 年的普通一天,人工智能助手喚你起床,為你端上已準(zhǔn)備好的早餐,都是你最喜
      推薦度:
      點(diǎn)擊下載文檔文檔為doc格式

      精選文章

      • 人工智能能做什么
        人工智能能做什么

        人工智能的出現(xiàn)到底意味著什么?人工智能能做什么呢?下面是學(xué)習(xí)啦小編為你整理的人工智能能做什么,供大家閱覽! 人工智能到底能做什么? 下次你加油的

      • 人工智能利弊作文
        人工智能利弊作文

        人工智能的出現(xiàn)很快成為寫(xiě)作的素材,那么有關(guān)人工智能利弊的作文有哪些呢?下面是學(xué)習(xí)啦小編為你整理的人工智能利弊作文,供大家閱覽! 人工智能利弊

      • 人工智能的利弊分析有什么
        人工智能的利弊分析有什么

        人工智能的出現(xiàn)對(duì)我們來(lái)說(shuō)是好還是壞呢,凡事都有兩面性,人工智能也一樣。下面是學(xué)習(xí)啦小編為你整理的人工智能的利弊分析,供大家閱覽! 人工智能

      • 人工智能技術(shù)現(xiàn)狀
        人工智能技術(shù)現(xiàn)狀

        最近十年興起的新一波的人工智能熱潮,已經(jīng)在工業(yè),交通,教育,娛樂(lè),生活甚至在軍事等方面改變了人類社會(huì)。當(dāng)前,人工智能的研究方興未艾,這次

      3262804