<i id="uanap"><bdo id="uanap"></bdo></i>

    1. <video id="uanap"></video>
        電話:0556-5537370
        關閉
        您當前的位置:首頁 > 職場資訊 > 人力管理

        同事是個機器人 怎么辦?

        來源:皖江人才網 時間:2025-01-12 作者:皖江人才網 瀏覽量:

        在2013年的一次機器人大會上,麻省理工學院的研究員凱特·達令(Kate Darling)做了一個小測試,她邀請與會者和體形與吉娃娃相當的電子恐龍玩偶一起玩耍。這些玩偶名為帕雷歐(Pleo),但與它們互動的人可以為自己的機器恐龍另外取名。這些人很快發現帕雷歐可以和他們溝通:小恐龍們通過姿勢和面部表情清楚地表示它們喜歡被輕撫,不喜歡被拎著尾巴拽起來。一小時后,達令讓大家休息一下;等游戲再開始時,達令拿出小刀和斧頭,讓參與者折磨、肢解他們的小恐龍。

        達令預計自己會遭到一些**,所以她早有準備,但當所有參與者一致拒絕傷害自己的機器恐龍時,她感到頗為驚訝。有些參與者為防止帕雷歐被人傷害,甚至用身體擋住它們。“我們回應這些仿生機器恐龍發出的社交信息,”她在2013年的演講中總結道,“即使我們知道它們不是真的生命。”

        這一洞見將引領下一波自動化風潮。埃里克·布林約爾松(Erik Brynjolfsson)和安德魯·麥卡菲(Andrew McAfee)在合著的《第二個機器時代》(The Second Machine Age)一書中提到,從在生產車間迅速學會新技能的自主機器人到能評估求職者或推薦企業戰略的軟件,這些“會思考的機器”正在進入工作場所,而且為企業和社會創造巨大價值。然而,盡管技術瓶頸正被一一攻破,但社會制約因素還在。你如何勸說你的團隊信任人工智能,或讓他們將機器人視為自己團隊中的一員,甚至領導,并接納它們?如果你換掉那個機器人,員工的士氣會低落嗎?但是當這些機器從工具轉變成我們的隊友時,有一點越來越明確:接納機器人意味著我們不能僅僅把它們當成一種新的技術應用。

        信任算法還是判斷?

        與會思考的機器協同工作時,我們遇到的第一個挑戰就是承認機器知道的比我們多。請參考2014年的一項研究:沃頓商學院的研究者進行了一系列實驗;受試者既可以運用某個算法,也可以根據自己的判斷做預測,而預測較準的受試者會得到獎金。多數人傾向憑直覺預測,而非運用某個算法。

        這一現象被稱作“回避算法”(Algorithm A.voidance),在多個研究中都有記錄。人們在診斷疾病或預測政治結果時都選擇摒棄算法,而是相信自己或他人的判斷,但結果往往是這種人類憑直覺做出的決定更糟糕。因此,管理者應得到啟示:幫助人們信任會思考的機器很有必要。

        但僅僅告訴人們算法有多精準并不能說服他們信任算法。人們會因算法出錯而對其抱有偏見,卻對犯錯的人類則更包容。研究者伯克利·戴特沃斯特(Berkeley Dietvorst)認為,這是因為我們相信人類的判斷力會提升,卻錯誤地以為算法無法演進。我們在做比數字計算更復雜或感性的工作時,回避算法的傾向更明顯。哈佛商學院的麥克·諾頓(Michael Norton)總結說:“思考近乎于做數學題。機器人可以做數學題。但它們不可以感受事物,因為那樣它們就太像人類了。”

        諾頓認為,只要把任務描述成分析類的工作,就有助于消除人們對算法的疑慮。在另一實驗中,他和凱洛格商學院的亞當·韋茲(Adam Waytz)一起發現,如果受試者得知數學老師教學生各種各樣的公式和運算法則時,要用到很多分析技能,他們會比較容易接受機器人可以當數學教師的觀點。但如果受試者被告知這份工作需要“與年輕人相處的能力”,他們就不太會贊同讓機器人任數學老師一職。

        戴特沃斯特和沃頓的同事另辟蹊徑。如果人們更信任自己的判斷,而非算法,那為何不將前者融入后者呢?于是他們在一次實驗中允許受試者稍稍調整算法的結果。他們要求受試者根據多個數據點預測某高中生的一次標準化數學測驗成績,但沒有強迫受試者在自己的判斷和算法中選其一,所以受試者可以將算法得出的成績調高或調低幾個百分點,之后將結果作為最終預測成績上交。研究者發現,得到選擇權的受試者更傾向信任算法。戴特沃斯特認為,這是因為他們不再感到自己正在放棄控制預測的權力。

        更信任酷似人的機器人

        另一個鼓勵人們信任會思考的機器的辦法是:讓機器人更像人類。研究表明,人們更易接納有聲音或有明顯可辨的人類體形的機器或算法。西北大學、康涅狄格大學和芝加哥大學的研究者借助自動駕駛汽車檢驗了這一論點。在他們的實驗中,受試者要使用一個模擬駕駛裝置。他們既可以手動控制轉向,也可以啟動自動駕駛功能。在有些情況下,自動駕駛功能完全控制模擬駕駛車輛的轉向和速度。換句話說,它被賦予了人類的特質,并獲得了一個名字——艾麗斯。它有女性的聲音,并在駕駛過程中與駕駛者對話。駕駛裝有艾麗斯的車的受試者更可能啟動自動駕駛功能。研究員還設計了一場模擬車禍,出錯一方是其他車輛,并非自動駕駛功能。駕駛由艾麗斯掌控的汽車的受試者面對車禍比駕駛沒有名字或聲音的汽車的受試者表現得更放松,也不太可能埋怨自動駕駛功能。

        研究者稱,人類有擬人觀傾向,即將人類的特征、動力,比如思考、感覺或表達意圖的能力套用到非人類的生物或物體上,因此艾麗斯得到了更多信任。長期以來,多個研究都證明賦予機器以聲音、形體,甚至名字順應了這一傾向,讓人們更容易與機器協同工作。舉例來說,我們與和自己有“眼神交流”的機器人合作更有效,而且我們覺得這些機器人,比如帕雷奧歪著腦袋的時候更可愛,而且像人類。

        機器人有時過于像人類

        賦予會思考的機器以人類特征的挑戰之一是我們可能被誤導,過于信任它們的能力。曼尼托巴大學的研究者進行了一系列實驗:受試者要做一項枯燥的重復性工作,即為計算機文件重命名。受試者早已知道實驗的時長,因為研究者稱他們可以在任何時間離開。但要被重命名的文件數量沒有上限,因此受試者必然會在某個時間選擇退出,而那時一個兩英尺高、名為吉姆的仿人機器人會勸告他們繼續重命名的工作。吉姆坐在書桌上,聲音機械而呆板。它好奇地環視整個房間,并做出各種手勢。這些設計是為了體現機器人的智能,但受試者并不知道吉姆實際上由研究者控制,而且不能自主行動。吉姆在受試者想要停止工作時會說類似“請繼續——我們需要更多數據”,或者“堅持下去很重要”的話。這種情況會持續下去,直到受試者不再聽從吉姆的勸告,放棄工作或者繼續堅持80分鐘。

        讓本研究作者之一詹姆斯·揚(James Young)最為驚訝的是,很多人“把機器人當成可以與之協商的人”。他們與機器人辯論,稱它讓他們繼續工作是不合理的,雖然機器人只是重復回應幾個相同的詞匯,其他什么都沒做。一些受試者似乎以為,機器人具備聲音和人類體形的事實足夠說明它們有能力進行理性分析。另一問題是隨著機器越來越酷似人類,我們可能會像對其他人一樣,對它們產生刻板印象,甚至歧視它們。

        最后,仿人機器人可能在工作場合引發人際矛盾。“你給機器人添加越多人類的特征,尤其是像情感這樣的特征,它激發的社交沖突就越大,”南加州大學教授約翰森·格拉齊(Jonathan Gratch)說,“你并不總希望你的虛擬機器人隊友像人一樣。你希望它比人更好。”

        格拉齊在自己的研究中探究了會思考的機器如何做到兩全其美,即獲得人類信任的同時,避免擬人觀陷阱。在其中一個研究中,他讓受試者分成兩組與電視屏幕上的數字化卡通人物(被稱為“虛擬人”)討論自己的健康狀況。他告訴一組受試者卡通人物由人類控制,告訴另一組受試者卡通人物是全自動化的虛擬人物。后一組的受試者更愿意透露較多健康信息,甚至表現得更悲傷。“當他們和人交談時,他們擔心得到****,”格拉齊說。

        格拉齊提出了假設,即“在某些情況下,最好不讓機器有太多人類特質”。例如,“你可以想像一下,如果你的老板是電腦,你就更可能開誠布公地指出它的缺點。”格拉齊還認為,在有些情況下,人們甚至會認為不太像人類的機器人更公正,且沒有偏倚。

        何時更喜歡機器人同事

        我們和會思考的機器的協作方式,會因我們所做工作、工作描述方式和機器設計方案的不同而有所變化。但在適當的條件下,人們對機器人同事的包容度出奇地高。朱莉·沙(Julie Shah)和麻省理工學院的同事設計了一個實驗:一個受試者、一位助理和一個機器人要合作搭建樂高模型。受試者被告知要把這份工作當成真正的制造業工作,并在緊迫的截止日期前完成它。為團隊成員有效分配工作對迅速完成計劃至關重要。

        受試者在三種不同情況下分別搭建了一個模型。第一種情況是機器人分派任務,即去實驗臺取樂高組件以及到制定的實驗臺組裝。第二種情況是受試者分派任務。第三種情況是受試者規劃自己的工作,而機器人將剩下的任務分派給自己和助理。研究員猜想,受試者最滿意第三種情況下的分配,因為他們不僅因機器人的專業排班算法而受益,還獲得了自主工作權。但結果是,他們更傾向讓機器人分派所有任務。事實上,這也是最有效率的方式:團隊在最短的時間內完成了計劃。

        為什么這些受試者對機器人的認可度比沃頓實驗中拒絕依賴算法的受試者高這么多呢?就目前所知,我們還不能下定論。沙指出一個事實:受試者接到的任務很難在規定時間內完成,所以他們認識到自己會因機器人的幫助而受益。此外,改變工作描述方式也極有可能幫助機器人贏得認可,比如規定任務目標為在可控環境下,爭分奪秒,最大限度地提高生產力,而機器人可能擅長這種強調理性的工作。最后,盡管這個機器人沒有聲音,也沒有社交功能,但它有人的外形,因此它看上去比沒有形體的算法更智能。

        沙在實驗結束時征集受試者的反饋,他們解釋說為何自己更傾向某一種任務安排。比較能說明問題的一點是,傾向讓機器人負責分派任務的受試者沒有強調機器人酷似人類的特征或他們與之建立起的親密聯系。相反,他們給出的原因包括“我從不會覺得自己在浪費時間”、“這種安排能保證排班不被自負的團隊領導左右”等。機器人成為理想隊友的原因是它做了機器人最擅長的事。

        微信掃一掃分享資訊
        相關推薦
        暫無相關推薦
        微信公眾號
        手機瀏覽

        Copyright C 2003-2022 All Rights Reserved 版權所有皖江人才網 皖ICP備2021000074號 公安備案號:34080202000488

        地址:安慶市迎江區皖江大道77號紫峰大廈B座 EMAIL:admin@wjjob.com

        ICP經營許可證:皖B2-20210254 人力資源證: X(2021)3408020007

        Powered by PHPYun.

        用微信掃一掃

        久久久久国产精品厨房_国产麻豆福利在线观看_国产乱码精品一区二区AV_免费欧美黄色福利网站
          <i id="uanap"><bdo id="uanap"></bdo></i>

          1. <video id="uanap"></video>
              伊人狠狠丁香婷婷综合 | 中文字幕乱码亚洲影视 | 亚洲精品在线看 | 日本久久久亚洲中文字幕 | 亚洲日韩高清在线亚洲专区 | 在线观看欧美高清福利片 |