" />
為一個機器人工作,將會是什么樣的一種體驗?這個概念聽起來很離譜,因為我們通常會說到非熟練勞動力被自動化,而不是管理職位被自動化。但是,“機器人經(jīng)理”的概念其實比大多數(shù)人所想象的來得更可行。看看經(jīng)理人的一些主要職責,例如,利用數(shù)據(jù)來評估問題、比團隊做出更佳的決定、監(jiān)督團隊成員的工作表現(xiàn)、為團隊設下相關的目標、向下屬提供準確的反饋:科技不僅能夠在這些核心管理任務上媲美人類,它也已經(jīng)是幫助人類更有效地完成這些任務的關鍵。
事實上,這些基本管理任務雖然很難使用人工智能來處理,但是對于管理者來說,這些任務也不能說是易事。如今,世界各地都有不敬業(yè)的員工,而管理不善是這一問題背后的主要原因。即使是在就業(yè)機會充足、失業(yè)率低的地方里,人們還是為了從事自由業(yè)或者創(chuàng)業(yè)而辭去工作,因為這就是避免自己有個上司的最佳方法。學術界估計,大約一半的經(jīng)理人將無法勝任管理的工作,而這往往是因為他們無法抑制自己有毒、黑暗一面的傾向。我們來做個簡單的示范:只需上谷歌網(wǎng)站,搜索“我的上司是”或者“我的經(jīng)理是”,就能看到大多數(shù)人是怎么看待自己上司的:谷歌的“自動完成”功能會產(chǎn)生許多罵人的話,而其中的好話則寥寥無幾。
很明顯的,在管理能力的領域中,人工智能的門檻是相當?shù)偷摹H斯ぶ悄芗词顾_到的標準不高,也能超越表現(xiàn)一般的經(jīng)理,更別說是表現(xiàn)差勁的經(jīng)理了。這種局面,就好像一輛自駕駛汽車只需要超越那些經(jīng)常撞車、使自己與別人受傷的大多數(shù)無能司機就行了。這當然是一種假設的情況:雖然有許多司機技術差,而每年都會有數(shù)百萬宗交通意外發(fā)生,但是大多數(shù)司機并不會撞車。不過,在這種情況中,自駕駛汽車不需要特別安全,也能超越人類司機。
讓我們從這個角度出發(fā),來考慮一下將你的經(jīng)理自動化的潛在利弊:
機器人經(jīng)理的好處
避免爭執(zhí)。科技雖然能使我們生氣(尤其是在它出現(xiàn)故障的時候),但是,比起科技,我們會更容易與另一個人起爭執(zhí)。正所謂,一個巴掌拍不響。即使機器人經(jīng)理有個性,它也會因為缺乏真實的情緒而管不著去真正與我們爭吵。請回想一下你的上司在過去激怒你的時候:你之所以憤怒,可能是因為對方對于某件事的感受讓你生氣,從而引發(fā)了這場唇舌之戰(zhàn)。相反的,如果你的電腦或電視機發(fā)生故障,你應該不會與它爭執(zhí),而你也可以肯定,它對你也不會有任何感受。我們雖然能夠?qū)萍籍a(chǎn)生感情(不管是好是壞),但是這些感情不會得到回報。雖然有“情感計算”之說,但是機器永遠也不會在乎。這就是機器的智力比人類更優(yōu)越的真正原因:我們就是在乎得太多,而在乎得太多可能會模糊我們的判斷力。
客觀反饋。雖然人才管理的科學很健全,但是經(jīng)理與人打交道時,往往會見機行事。要是憑直覺來作決定,就會引發(fā)一些無意識(以及有意識)的偏差,從而產(chǎn)生一種含有裙帶關系色彩的政治文化,使員工感覺到自己被不公平對待。即使經(jīng)理出于好意,他們卻往往因為害怕沖突、嫉妒心強、或者根本無法客觀地評估員工,而無法向員工提供準確的反饋。一名員工的表現(xiàn)與潛力在某種程度上是可以被量化的,而在這范圍之中,員工從機器人得到的反饋,將比他們從人類經(jīng)理那里得到的反饋更客觀。
更好的決策。在這個信息爆炸的時代里,人類的大腦無法將大量數(shù)據(jù)中的信息處理并轉(zhuǎn)化成知識。就是這個原因,促使日立集團推出一種“電腦上司”技術,為各種問題分析出最佳的解決方案,并向員工下達指令。也因為如此,現(xiàn)在當我們無法上網(wǎng)的時候,我們就會覺得那么無知。當然,有些決策太過復雜,無法進行自動化,但是大多數(shù)決策應該更簡單。“控制論之父”諾伯特·維納(Norbert Wiener)數(shù)十年前就已經(jīng)指出,“假如我們可以用明確、易懂的方式來執(zhí)行任何任務,我們就能用機器來執(zhí)行。”換句話說,如果某個任務有個流程或算法的話,人工智能就能復制它、完善它。人工智能的真正挑戰(zhàn),就是復制出不復雜的決策,也就是所謂的“自然愚蠢”(natural stupidity)。也許,“人工愚蠢”(artificial stupidity,AS)才是機器學習的終極前沿。
機器人經(jīng)理的壞處
人工智能也有可能犯錯。有些算法已經(jīng)在做出一些“行政決策”,向顧客推薦應該避開哪一位優(yōu)步司機、在亞馬遜網(wǎng)站上應該信任哪一位賣家、在 Facebook 上應該相信哪一篇新聞報導。這就是人們時常會以“少用資源多辦事”來為科技定義的原因。然而,人工智能并不是萬無一失的。舉個例子:人工智能知道從事高級職位的女性人數(shù)較少,也知道黑人更有可能因犯罪而被逮捕;這兩件事實,可能會導致人工智能將高薪職位推薦給男性而非女性,并在錄取求職者時偏向選擇白人而非黑人。在這樣的情況下,人工智能雖然沒有對任何一方表現(xiàn)出偏見,但是它做出的決定只能說是既具性別歧視,又具種族歧視,因為這些決定是在加強而非消除人類的偏見。
機器人可以做到的事是有限的。機器人的問題不在于他們不能執(zhí)行一般的任務,而是在于他們無法完成一些重要的工作。比方說,機器雖然已經(jīng)開始表現(xiàn)出創(chuàng)意,但是說到創(chuàng)業(yè)或開發(fā)新產(chǎn)品,機器人則是遠遠不及那種地步。算法能夠以人類不能達到的速度分析大量信息,以將現(xiàn)有的“手段和目的”優(yōu)化。然而,要進行真正的創(chuàng)新,就要利用信息,在手段與目的之間找到新的聯(lián)系,而這個過程可能會產(chǎn)生意想不到的行為。因此,人工智能可以推薦一家酒店給你,但它無法發(fā)明 Airbnb。當然,大多數(shù)人也無法做到這一點。但是,如果將經(jīng)理的創(chuàng)造力和創(chuàng)新能力消除,員工的工作就會變得更沉悶。
人類需要與人接觸。史蒂文·斯皮爾伯格(Steven Spielberg)的電影《人工智能》(AI)中的 David 是個會愛人的機器男孩。但是,機器人不像 David 一樣:他們?nèi)狈η榫w。然而,“機器人上司”的問題,不是他們沒有任何情緒,而是就連最復雜的機器(到目前為止)還不夠先進,無法察覺出你的感受。一個機器人無法理解,你的表現(xiàn)欠佳是因為你感冒了,還是因為你的小狗去世了。其實人類經(jīng)理也是這樣的,但是比起機器人經(jīng)理,我們比較會原諒人類經(jīng)理,因為我們還是可以希望人類經(jīng)理會體諒我們。同樣的,員工會希望其他人類(而不是人工智能)認可他們、贊賞他們。事實上,研究顯示,比起機器給予的獎勵,人類給予的獎勵感覺上要正面得多。
歸根結底,一成不變的做法也許不會適合所有人,因此我們可以想象,有些員工寧愿為機器人工作,也不愿為人類經(jīng)理工作,尤其是那些曾被上司或前上司折磨過的員工。從上述的谷歌“自動完成”功能的示范便可看出,如此討厭上司的大有人在。
圖片來源:找項目網(wǎng)
關注官方微信有驚喜哦
16年專業(yè)誠信服務,我們只專注于國有資產(chǎn)交易的精品投行之路;
只為了讓項目信息獲取再快捷一點,摘牌受讓更順暢一點,讓您更省心一點;
給我們一個服務的機會,一定會給您帶來意外的驚喜,這并不會花費您太多的時間;
立即致電 010-52401598/18511591553 或者通過以下方式聯(lián)系。