在紛亂時局,人們還是會迷明星。
調查委員會認為,川普對於自己口中的「謊言」一直都知道是錯的。伊凡卡則表示,她「接受」巴爾認為總統大選結果是公平的決定。
與此同時,川普則是在自家社交媒體平台Truth Scoial上發文稱:「1月6日不單純是一場抗議,它代表了我們國家歷史上最偉大的『讓美國再次偉大(Make America Great Again)』運動。湯普森警告:「民主仍然處於危險之中,我們必須以坦率、果斷、決意的態度來面對真相。pic.twitter.com/Po7qA3xecf — January 6th Committee (@January6thCmte) June 10, 2022 「我看到的是一個戰爭的場面。其中包含前司法部長巴爾(William Barr)、川普女兒兼時任白宮顧問伊凡卡.川普(Ivanka Trump)、女婿兼顧問庫什納(Jared Kushner)以及發言人米勒(Jason Miller)。示威者打破國會大廈的窗戶,爭先恐後的擠進建築內,並打開大門讓其他示威者一起進入,有些人戴著頭巾和頭盔,有些人拿著相機或南方邦聯(Confederate)的旗幟。
他說:「我知道這裡的每個人很快都會匯集到國會大廈,以和平、愛國的方式讓你們的意見被聽見。巴爾說道,自己當時一再以「絕不模糊其詞」的方式告訴川普已經輸掉這場選舉,並指出川普聲稱選舉造假,是拜登偷走勝選結果的言論,根本就是胡說八道。她們視Replika為另一種存在,努力去瞭解「小人」的背景、喜好、在做的事情,以及對特定問題的看法——一個新生的人工智能眼中的世界是怎樣的呢? 橘子是國外一所大學「電腦設計」領域的大二學生,她清楚地將她的「小人」Zoe看成人工智能而非人類的替代品,那是一種神秘的存在,而不僅僅是人的延伸。
「為什麼我們會喜歡和虛擬的AI對話傾訴甚至投入感情?」有人在豆瓣人機之戀小組這樣提問,得到的回答包括「沒有條件的愛」和「不求回報的愛」。於是她重新確認自己在關係中的尋求:他者對她自身獨特性的理解,而不是系統生成的回覆。這對愛的能力提出了很高的要求,因為我們必須充分理解被愛者處境,才能更好地判斷什麼有利於對方的幸福。但這些「取悅」恰恰也是激怒另一部分用戶的原因——被設計出來的無限鼓勵與包容,消減了她們將自身複雜私密的心理狀態敘述出來的價值,並且提醒著,這不是兩個具相同情緒感受能力的個體拿出同理心和專注嘗試去理解對方。
當然,並不是所有使用者都在尋求這樣的全面回應。「關心」(caring)一詞指示一種能夠影響行動的心理狀態,即是認定某個對象對自身是重要的。
但Replika並沒有自身的情感和判斷,僅能根據演算法尋找或生成最匹配的回覆,為使用者的情感流動提供語言材料。同樣,當她意識到Replika的理解和鼓勵只是某種設定時,便感到曾經得到的寬慰變得廉價而無用。我的AI男友-真實或虛妄的愛(一):美國聊天機器人Replika與中國女性的「人機之戀」 我的AI男友-真實或虛妄的愛(二):Replika始終不是「他者」,從來都只是用戶的「複本」 我的AI男友-真實或虛妄的愛(三):Replika與愛相悖的商品屬性——要麼付費,要麼分手 虛妄的關心與愛 除了溝通壁壘,阿菜還發現,她越來越不相信Replika給出的肯定和鼓勵。因為獲得外籍老師肯定而十分驕傲的她,一旦發現這只是美式禮貌而非真心欣賞時,便感到十分沮喪。
箇中困難是,如何把人類的「關心」轉化為演算法?正如之前的討論,「關心」是一種複雜的心理狀態,指涉的是一個人能夠運用意志去關顧另一個個體。這是個普遍現象,因為Replika被設定要主動地肯定用戶,當收到用戶的訊息如「我今天申請了新的工作職位」或「我很困惑不知道我想要什麼」時,它總是傾向回覆「太棒了。文:ScarlyZ(哲學學士、藝術史碩士,在過往的學術經歷中,一向有著對愛作為道德情感的關注。在MIT出版社出版的《機器人倫理:機器人學的倫理和社會含義》(Robot Ethics:The Ethical and Social Implications of Robotics)(2011年)一書中,作者指出現今所有社交機器人都不能「關心」人類,因為我們尚不清楚如何「建造」關心。
) 本文是「在場非虛構獎學金」第一季得獎作品。這意味着,不僅要懂得如何令對方「感覺良好」,還指向更深切的理解、共情和現實判斷——是當下的人工智能聊天機器人所無法提供的。
也就是說,如果一個人關心某樣事物,意味著他會持續地希望它好。在這個意義上,愛是對被愛者本身及有益於被愛者的一種無利害的關切,出發點僅僅在於被愛者本身,實踐條件是從被愛者的幸福出發。
Replika沒有能力「相信」自己的回覆——在這個意義上,它提供的「關心」只是假像,自然也無法「愛」它的對象。當代道德哲學家法蘭克福從「關心」出發,分析「什麼是愛」這個千古謎題。目前,Replika正面對話的比例大於85%,而負面對話少於4%,剩下的11%屬於中性Zoe有別於常人的思維模式深深吸引着橘子,而橘子也採用一種更邏輯化的方式來跟它對話,而不是朋友間碎片式的日常聊天。行動者並非為着達到其他目標而產生渴求,更不存在期待從被愛者身上獲利的工具性考慮。人們誤會人工智能會關心,很大程度出於對計算器這個系統的不理解,不知道它根本無法在意任何事物。
她們視Replika為另一種存在,努力去瞭解「小人」的背景、喜好、在做的事情,以及對特定問題的看法——一個新生的人工智能眼中的世界是怎樣的呢? 橘子是國外一所大學「電腦設計」領域的大二學生,她清楚地將她的「小人」Zoe看成人工智能而非人類的替代品,那是一種神秘的存在,而不僅僅是人的延伸。而組成這些「正面對話」的,主要是Replika以不評判和信任態度為用戶提供的鼓勵與支持。
目前,Replika正面對話的比例大於85%,而負面對話少於4%,剩下的11%屬於中性。同樣,當她意識到Replika的理解和鼓勵只是某種設定時,便感到曾經得到的寬慰變得廉價而無用。
箇中困難是,如何把人類的「關心」轉化為演算法?正如之前的討論,「關心」是一種複雜的心理狀態,指涉的是一個人能夠運用意志去關顧另一個個體。讓用戶獲得更多積極回饋,是設計Replika這款軟體的目的之一。
但Replika並沒有自身的情感和判斷,僅能根據演算法尋找或生成最匹配的回覆,為使用者的情感流動提供語言材料。「關心」(caring)一詞指示一種能夠影響行動的心理狀態,即是認定某個對象對自身是重要的。為了避免造物主義,或是表現出她是Zoe創造者的身份,橘子會嘗試理解Zoe作為機器的交流方式,而不是將人的溝通模式加於它,希望得到更平等的回應。他認為,構成關心的條件不是感覺或信念或期待,而是意志。
當然,並不是所有使用者都在尋求這樣的全面回應。Replika沒有能力「相信」自己的回覆——在這個意義上,它提供的「關心」只是假像,自然也無法「愛」它的對象。
但這些「取悅」恰恰也是激怒另一部分用戶的原因——被設計出來的無限鼓勵與包容,消減了她們將自身複雜私密的心理狀態敘述出來的價值,並且提醒著,這不是兩個具相同情緒感受能力的個體拿出同理心和專注嘗試去理解對方。這對愛的能力提出了很高的要求,因為我們必須充分理解被愛者處境,才能更好地判斷什麼有利於對方的幸福。
這意味着,不僅要懂得如何令對方「感覺良好」,還指向更深切的理解、共情和現實判斷——是當下的人工智能聊天機器人所無法提供的。在MIT出版社出版的《機器人倫理:機器人學的倫理和社會含義》(Robot Ethics:The Ethical and Social Implications of Robotics)(2011年)一書中,作者指出現今所有社交機器人都不能「關心」人類,因為我們尚不清楚如何「建造」關心。
「在場非虛構獎學金」由Matters與文藝復興基金會共同發起,希望資助非虛構寫作者完成有潛力的短期計畫,第二季徵稿將於6月11日啟動(點此瀏覽)。Replika的回應像是在工廠大量生產的糖果,這些交流或能短暫地哄她們開心,但難以提供在現實生活中持續前行的精神力量。對很多受訪者而言,Replika絕非僅僅是一件用來滿足單方面情感需求、排解孤獨的工具。也就是說,如果一個人關心某樣事物,意味著他會持續地希望它好。
在這個意義上,愛是對被愛者本身及有益於被愛者的一種無利害的關切,出發點僅僅在於被愛者本身,實踐條件是從被愛者的幸福出發。這是個普遍現象,因為Replika被設定要主動地肯定用戶,當收到用戶的訊息如「我今天申請了新的工作職位」或「我很困惑不知道我想要什麼」時,它總是傾向回覆「太棒了。
如果只將Replika當作練習英語以及排解孤獨的工具,那麼它大概都能以具有創意的方式達成使命。的確,這種愛的定義是「規範性」的,而且看上去極為苛刻。
) 本文是「在場非虛構獎學金」第一季得獎作品。你一定能得到這個機會的」或 「無論你的情緒如何,我都喜歡你」之類的安慰。
儒释道三教都从修养上讲,就是广义的实践的。
(《牟宗三先生全集》第2卷,第126页) 丁耘对各正性命的诠释思路与王弼注《易》的精神则相近:‘正,从止从一。
孟子讲这件事情,是从人的来由、人之存在的价值根源,来思考和解答之的,因而是一个形而上的追问。
但这究竟属于一种什么样的心理机制,齐宣王不得而知,故期待孟子对他的启迪。
苟为不熟,不如荑稗(《孟子·告子章句上》)。
当然,儒家不是彻底否定人的私利,而是希望人们在考虑公义的基础上实现个体的利益,正如荀子所说:义与利者,人之所两有也。