自動化和人工智慧有望徹底改變許多人的工作方式,但不要擔心–你仍然會被需要很長一段時間。
ChatGPT具有成為技術遊戲改變者的所有跡象。但ChatGPT會搶走你的工作嗎?
一個由機器學習和大量資料驅動的聊天機器人,它以一種令人難以置信的真實方式與使用者互動。
但這個由OpenAI建立的模型不僅僅是進行虛擬對話。它可以生成詩歌或學期論文等內容,除錯程式碼,回答查詢,等等。
這是一個令人興奮的發展。但就個人而言,它更讓人擔心–特別是關於它對工作安全的影響。
如果技術達到一個水平,它可以和你的工作一樣好,甚至比你做得更好,你將以什麼為生?
大多數人的整個職業生涯都是在一個領域工作。他們都應該成為木匠或按摩治療師嗎?如果是這樣,這些角色的競爭不是很激烈嗎?我們將如何生存?
光是這個想法就足以誘發全面的恐慌症。
但是,請放鬆。如果你需要的話,對著一個紙袋呼吸。
事情並不像所有這些那樣令人絕望。
你會好起來的。飛機有一個複雜的自動駕駛系統,在飛行過程中,主要由計算機控制,但飛行員在那裡坐著,在需要時調整計算機的控制。
是的,在一個足夠長的時間尺度上,技術最終會承擔你現在的角色。然而,這不太可能很快發生。
機器學習和人工智慧仍處於起步階段,在機器來找你的工作之前,你(希望)早已退休了。
而在這之前,像ChatGPT這樣的工具的力量將使你能夠以更高的效率和效力履行你的職責。
在這篇文章中,我們將看看一些最有可能受到ChatGPT影響的工作,並對其安全性進行1-10分的評分,1分意味著沒有機會被機器取代,10分意味著擦亮你的簡歷,因為你即將得到你的步行證。
ChatGPT會危及你的工作嗎?
搜尋引擎優化專家
毫無疑問,ChatGPT和類似的專案將改變SEO專業人士的工作方式。但這就是搜尋引擎優化–變化是唯一不變的。
而且它已經被該行業的一些專業人士所採用。從關鍵詞研究和策略到內容建立和報告,ChatGPT顯示出巨大的潛力。但這並不意味著它將為你的工作而來。
首先,無論人工智慧驅動的程式變得多麼強大,它們永遠不會成為人類,這意味著它們永遠不會有我們的創造能力或精神怪癖(儘管ChatGPT正在產生一些令人印象深刻的創造性工作)。目前的人工智慧系統既需要人類的指導訓練,也需要人類的輸入來訓練,這限制了它們對當前和最近事件的瞭解,並使人類產生的工作成為它們運作的核心部分。它還需要人類的事實檢查員。
而且我們不要忘記,現在,谷歌認為人工智慧生成的內容是違反其準則的。雖然,使用反人工智慧檢測演算法並不是萬無一失的。
大多數認真僱用SEO專業人士的企業(應該是所有的企業)不應該願意冒被標記為垃圾郵件的負面影響。
機器驅動的SEO也將努力協調相互矛盾的資訊,並確定哪些是準確的。
在可預見的未來,似乎需要人類來監督任何人工智慧驅動的SEO工作,提供創造性的意見,提供戰略方向,並根據搜尋潮流的變化做出調整。
- 替換風險: 2/10.
程式設計師
程式設計是一個常見的、通常是有利可圖的職業道路。
但在關於ChatGPT的討論中,不斷出現的一個關鍵特徵是其編寫程式碼的能力。想象一下–程式碼編寫新的程式碼,永遠不會忘記小數點或結尾的括號。這聽起來像是一個全壘打。
此外,ChatGPT已經顯示出有能力通過認證考試,這可能會提高入門級工作的門檻,使初級開發人員更難找到職位。
只是有一個小問題:OpenAI聊天機器人離能夠編寫複雜的程式碼還很遠。當然,它可以在HTML中管理 “Hello, World!”,但根據行業專家的說法,弄清更多困難的應用仍然是相當遙遠的事情。
ChatGPT生成HTLM程式碼檢視
還有一個事實是,在ChatGPT被用來回答問題後,Stack Overflow禁止了它–錯誤的。
這並不是說它不會影響程式設計師的工作。
隨著聊天機器人和其他類似機器人的學習和改進,它們將越來越多地取代建立通用函式等模板程式碼、執行質量評估和除錯現有程式碼的需要。這反過來又會使人類開發者騰出手來,專注於更復雜的架構。
除了簡化編碼和減少浪費外,人工智慧編碼員還可能在該領域產生新的工作,包括程式碼提示執行者和開發人員倡導者(技術工人和非技術人員之間的中間人)。
而所有這些額外的程式設計能力很可能會催生新的程式設計工作,甚至沒有人想到過。
如果我們從摩爾定律中學到一件事,那就是技術的增長是指數級的。每關閉一扇職業門,就會有多扇新的門開啟。
保持開放的心態,不斷學習。
- 替換風險: 4/10.
PPC廣告專家
一般來說,PPC專家似乎並不關心ChatGPT和其他AI技術對他們工作安全的影響。如果你要猜測原因,那可能是因為他們已經與之和平相處了。
如果你曾經建立過一個PPC活動,你已經使用了人工智慧的力量,或者至少是非常類似的東西。自動規則可以被看作是人工智慧的初級型別,在那裡你為常見的使用案例建立規則。
在一個被稱為自動化分層的過程中一起使用這些規則,是確保你的PPC賬戶在面對錯誤或其他異常事件時不會自行流失的重要步驟。
ChatGPT為PPC領域提供的可能性只是這一理念的延續。人工智慧將在實時資訊驅動的統計學習方法基礎上實現競價過程的自動化。它可能也會將許多人工工作從活動管理中剝離出來。
就像搜尋引擎一樣,ChatGPT或其任何競爭對手似乎都不太可能很快將人類工人從等式中剔除。除了創意方面,人類PPC專家還執行一專案前沒有程式可以執行的任務。操縱船隻。
人類瞭解他們的客戶、品牌和價值觀。而這意味著,在可預見的未來,人將需要為每個企業制定一個合理的路線。
同樣,人類將需要教導人工智慧應該做出哪些決定,以及在事情偏離軌道時診斷出什麼問題。
- 替換風險: 2/10.
作家
你可能可以想象,這是個人特別關注的一個領域。當ChatGPT等可以在更短的時間內想出一個更好、更快、更有效的標題時,像我這樣依靠創造書面文字的人該怎麼辦呢?
當計算機吐出難以理解的對話時,這並不是什麼大問題,就像2016年完全由人工智慧編寫的短片《Sunspring》那樣。然後,我們有了ChatGPT。
查詢一部關於鬧鬼的鐘表的恐怖電影的情節,得到了一個令人難以置信的連貫(和有趣)的概要。這意味著即使是創造性的寫作工作也可能面臨風險。
ChatGPT生成恐怖電影情節
直到你對一部關於鬧鬼的公墓的恐怖片進行第二次查詢。這促使ChatGPT給你一個類似的故事梗概,但情節要點略有不同。
ChatGPT生成恐怖片情節
它的不同足以讓我們通過版權法嗎?是的。但這並不是說它不是公式化的,沒有靈感的。
因此,創意確實為作家提供了某種保護(目前),但非創意性的寫作、新聞、白皮書等呢?考慮到ChatGPT已經變得足夠有說服力,激發了人們對學術作弊的擔憂,那麼在這些領域,ChatGPT肯定是一個隱憂?
目前,人工智慧系統的訓練方式意味著它們無法接觸到最新的事件,這使得它們不適合突發新聞和新的發展。
此外,使用人工智慧來建立活人寫的文案的聯絡和共鳴可能相當困難,特別是在新聞和創意工作中,聲音、細微差別、情感和風格很重要。
有幾項更常規的寫作任務,人工智慧可以非常有效地完成,如建立產品描述、廣告文案、視訊概要,以及其他耗時和重複的工作。
雖然自動化智慧似乎有可能取代專業作家的一些角色,但它完全取代他們的日子還很遙遠。即使到那時,人類對創作的渴望仍可能使寫作成為一種流行的活動。
- 替換風險:4/10.
銷售專家
毫無疑問,大資料和人工智慧可以用來徹底改變銷售過程。從更準確的目標定位到行為預測,毫無疑問,它可以用來使銷售更容易、更有效。
你可能已經在自己的生活中看到了這種效果,因為零售商收集和分析你的購買習慣來進行預測。那些商店的獎勵卡和折扣鑰匙扣的存在只有一個原因:收集你的資料進行分析。
這也已經持續了相當長的一段時間。早在2012年,塔吉特公司的資料探勘在一個少女的父親還不知道的情況下就確定了她的懷孕。而且從那時起,它只會變得更好。
當然,這意味著銷售職業被淘汰了,對嗎?還差得遠呢。
立法者,尤其是歐洲的立法者,正在對許多使用演算法和人工智慧的最大科技公司進行嚴厲打擊,其法律重點是隱私和消費者保護。谷歌正在減少使用者跟蹤;第三方cookies正在消失。在很長一段時間內,人工智慧的技術飛躍在銷售和營銷方面的應用可能是有限的。
此外,詢問任何有價值的銷售人員關於達成交易的最重要的事情,他們中的十個人中有九個會告訴你同樣的事情:信任。而信任始於個人關係,即使是最有說服力的人工智慧也可能永遠無法複製。
當然,這並不是說ChatGPT等在銷售中沒有用處。大多數銷售部門已經使用CRM工具來幫助他們追尋熱門的潛在客戶並實現營銷自動化。而嵌入網站的聊天機器人使資訊收集比以往任何時候都更容易。
就像所討論的幾乎所有其他領域一樣,ChatGPT有望重塑銷售過程的面貌,並使行政工作自動化,但它永遠不會取代實際的人際互動。
- 替換風險:1/10.
教育工作者
如果人是冷酷無情的機器,那就沒有比死記硬背的輸入更好的教育方式了。但人不是計算機,教育的意義遠不止是傳授知識。
任何程式設計、演算法調整和資料處理都無法取代人類的無形資產,如耐心、紀律技能、友善和對學生福祉的真正關注。
與銷售一樣,無論技術如何進步,ChatGPT或其他人工智慧工具似乎永遠無法取代人類教育工作者。
但是,這並不是說它不會改變事情的完成方式。從評分到進度跟蹤,從制定個性化的學習計劃到提高可及性,有很多機會可以在這個領域使用這種令人興奮的新技術。
- 替換風險:1/10.
律師
乍一看,法律似乎是人工智慧肯定會取得大進展的一個領域。畢竟,除了一套成文的指令,法律是什麼?
為什麼不能用ChatGPT來分析法律檔案、決定和先例,然後將這些知識應用於現實世界的案件?
還有人的因素要考慮。
反對刑事審判中強制性最低刑罰的主要論點之一是,每一種情況都是獨一無二的。
對於民事審判、離婚訴訟、破產或其他法律問題,這一點也不例外。而且,由於法律領域處理的是人,而不是絕對的東西,所以總會有一些可能性,即使是最深的人工智慧也無法解釋。
由於ChatGPT的訓練方式,僅以其研究為基礎的法律論證不會考慮至少過去12個月的案例和決定。這在某些情況下可能是災難性的。再加上它有時會出錯的傾向,這個工具在法律界可能會變得比它的價值更麻煩。
雖然類似ChatGPT的技術可以證明對法律領域的研究和學術研究、自動化合同和表格,甚至加速司法程式等作用是有益的,但機器沒有能力作出判決。
它們也不能保證沒有偏見,乍一看,這似乎是它們相對於人類的主要優勢。根據他們的訓練方式,ChatGPT和其他聊天機器人很容易受到資料集偏見的影響,準確率也不到100%。
而這意味著法官的角色,更不用說熱情而熟練的律師左右意見的力量,沒有被計算機取代的危險。
- 替換風險:1/10.
小結
ChatGPT和其他採用機器學習和大資料來追求人工智慧的程式可以是很好的工具。它們在減少甚至消除你必須執行的許多平凡的日常任務方面顯示出巨大的前景。
而且,我們已經在生活的其他方面接受了這種技術–只要看看Alexa和Siri的受歡迎程度,或者成千上萬的人欣然接受的任何品牌的機器人吸塵器。
為什麼我們不希望更智慧的機器也能讓我們的工作生活更輕鬆呢?因為他們會的。
話雖如此,一些行業在未來幾年或幾十年內更有可能被機器取代。這些包括像接待員這樣的職位,許多客戶服務工作,包括計程車司機和卡車司機在內的駕駛工作,以及士兵。
對於像ChatGPT這樣的人工智慧工具如何被無良的個人或公司利用,人們也有正確的擔憂。從學生在大學裡作弊到偽造科學摘要,人工智慧工具是否造成損害在很大程度上取決於我們如何使用它們。一些僱主可能比其他僱主更快嘗試用人工智慧削減成本。但由於準確性、道德和政治問題,也可能會看到阻力。
有一件事是肯定的–他們每取代一個職位,就會以其他方式付出代價,邊走邊創造新的機會和行業。
先不要擔心ChatGPT對你的職業生涯可能意味著什麼。
評論留言