自动化和人工智能有望彻底改变许多人的工作方式,但不要担心–你仍然会被需要很长一段时间。
ChatGPT具有成为技术游戏改变者的所有迹象。但ChatGPT会抢走你的工作吗?
一个由机器学习和大量数据驱动的聊天机器人,它以一种令人难以置信的真实方式与用户互动。
但这个由OpenAI创建的模型不仅仅是进行虚拟对话。它可以生成诗歌或学期论文等内容,调试代码,回答查询,等等。
这是一个令人兴奋的发展。但就个人而言,它更让人担心–特别是关于它对工作安全的影响。
如果技术达到一个水平,它可以和你的工作一样好,甚至比你做得更好,你将以什么为生?
大多数人的整个职业生涯都是在一个领域工作。他们都应该成为木匠或按摩治疗师吗?如果是这样,这些角色的竞争不是很激烈吗?我们将如何生存?
光是这个想法就足以诱发全面的恐慌症。
但是,请放松。如果你需要的话,对着一个纸袋呼吸。
事情并不像所有这些那样令人绝望。
你会好起来的。飞机有一个复杂的自动驾驶系统,在飞行过程中,主要由计算机控制,但飞行员在那里坐着,在需要时调整计算机的控制。
是的,在一个足够长的时间尺度上,技术最终会承担你现在的角色。然而,这不太可能很快发生。
机器学习和人工智能仍处于起步阶段,在机器来找你的工作之前,你(希望)早已退休了。
而在这之前,像ChatGPT这样的工具的力量将使你能够以更高的效率和效力履行你的职责。
在这篇文章中,我们将看看一些最有可能受到ChatGPT影响的工作,并对其安全性进行1-10分的评分,1分意味着没有机会被机器取代,10分意味着擦亮你的简历,因为你即将得到你的步行证。
ChatGPT会危及你的工作吗?
搜索引擎优化专家
毫无疑问,ChatGPT和类似的项目将改变SEO专业人士的工作方式。但这就是搜索引擎优化–变化是唯一不变的。
而且它已经被该行业的一些专业人士所采用。从关键词研究和策略到内容创建和报告,ChatGPT显示出巨大的潜力。但这并不意味着它将为你的工作而来。
首先,无论人工智能驱动的程序变得多么强大,它们永远不会成为人类,这意味着它们永远不会有我们的创造能力或精神怪癖(尽管ChatGPT正在产生一些令人印象深刻的创造性工作)。目前的人工智能系统既需要人类的指导训练,也需要人类的输入来训练,这限制了它们对当前和最近事件的了解,并使人类产生的工作成为它们运作的核心部分。它还需要人类的事实检查员。
而且我们不要忘记,现在,谷歌认为人工智能生成的内容是违反其准则的。虽然,使用反人工智能检测算法并不是万无一失的。
大多数认真雇用SEO专业人士的企业(应该是所有的企业)不应该愿意冒被标记为垃圾邮件的负面影响。
机器驱动的SEO也将努力协调相互矛盾的信息,并确定哪些是准确的。
在可预见的未来,似乎需要人类来监督任何人工智能驱动的SEO工作,提供创造性的意见,提供战略方向,并根据搜索潮流的变化做出调整。
- 替换风险: 2/10.
程序员
编程是一个常见的、通常是有利可图的职业道路。
但在关于ChatGPT的讨论中,不断出现的一个关键特征是其编写代码的能力。想象一下–代码编写新的代码,永远不会忘记小数点或结尾的括号。这听起来像是一个全垒打。
此外,ChatGPT已经显示出有能力通过认证考试,这可能会提高入门级工作的门槛,使初级开发人员更难找到职位。
只是有一个小问题:OpenAI聊天机器人离能够编写复杂的代码还很远。当然,它可以在HTML中管理 “Hello, World!”,但根据行业专家的说法,弄清更多困难的应用仍然是相当遥远的事情。
ChatGPT生成HTLM代码视图
还有一个事实是,在ChatGPT被用来回答问题后,Stack Overflow禁止了它–错误的。
这并不是说它不会影响程序员的工作。
随着聊天机器人和其他类似机器人的学习和改进,它们将越来越多地取代创建通用函数等模板代码、执行质量评估和调试现有代码的需要。这反过来又会使人类开发者腾出手来,专注于更复杂的架构。
除了简化编码和减少浪费外,人工智能编码员还可能在该领域产生新的工作,包括代码提示执行者和开发人员倡导者(技术工人和非技术人员之间的中间人)。
而所有这些额外的编程能力很可能会催生新的编程工作,甚至没有人想到过。
如果我们从摩尔定律中学到一件事,那就是技术的增长是指数级的。每关闭一扇职业门,就会有多扇新的门打开。
保持开放的心态,不断学习。
- 替换风险: 4/10.
PPC广告专家
一般来说,PPC专家似乎并不关心ChatGPT和其他AI技术对他们工作安全的影响。如果你要猜测原因,那可能是因为他们已经与之和平相处了。
如果你曾经建立过一个PPC活动,你已经使用了人工智能的力量,或者至少是非常类似的东西。自动规则可以被看作是人工智能的初级类型,在那里你为常见的使用案例创建规则。
在一个被称为自动化分层的过程中一起使用这些规则,是确保你的PPC账户在面对错误或其他异常事件时不会自行流失的重要步骤。
ChatGPT为PPC领域提供的可能性只是这一理念的延续。人工智能将在实时信息驱动的统计学习方法基础上实现竞价过程的自动化。它可能也会将许多人工工作从活动管理中剥离出来。
就像搜索引擎一样,ChatGPT或其任何竞争对手似乎都不太可能很快将人类工人从等式中剔除。除了创意方面,人类PPC专家还执行一项目前没有程序可以执行的任务。操纵船只。
人类了解他们的客户、品牌和价值观。而这意味着,在可预见的未来,人将需要为每个企业制定一个合理的路线。
同样,人类将需要教导人工智能应该做出哪些决定,以及在事情偏离轨道时诊断出什么问题。
- 替换风险: 2/10.
作家
你可能可以想象,这是个人特别关注的一个领域。当ChatGPT等可以在更短的时间内想出一个更好、更快、更有效的标题时,像我这样依靠创造书面文字的人该怎么办呢?
当计算机吐出难以理解的对话时,这并不是什么大问题,就像2016年完全由人工智能编写的短片《Sunspring》那样。然后,我们有了ChatGPT。
查询一部关于闹鬼的钟表的恐怖电影的情节,得到了一个令人难以置信的连贯(和有趣)的概要。这意味着即使是创造性的写作工作也可能面临风险。
ChatGPT生成恐怖电影情节
直到你对一部关于闹鬼的公墓的恐怖片进行第二次查询。这促使ChatGPT给你一个类似的故事梗概,但情节要点略有不同。
ChatGPT生成恐怖片情节
它的不同足以让我们通过版权法吗?是的。但这并不是说它不是公式化的,没有灵感的。
因此,创意确实为作家提供了某种保护(目前),但非创意性的写作、新闻、白皮书等呢?考虑到ChatGPT已经变得足够有说服力,激发了人们对学术作弊的担忧,那么在这些领域,ChatGPT肯定是一个隐忧?
目前,人工智能系统的训练方式意味着它们无法接触到最新的事件,这使得它们不适合突发新闻和新的发展。
此外,使用人工智能来建立活人写的文案的联系和共鸣可能相当困难,特别是在新闻和创意工作中,声音、细微差别、情感和风格很重要。
有几项更常规的写作任务,人工智能可以非常有效地完成,如创建产品描述、广告文案、视频概要,以及其他耗时和重复的工作。
虽然自动化智能似乎有可能取代专业作家的一些角色,但它完全取代他们的日子还很遥远。即使到那时,人类对创作的渴望仍可能使写作成为一种流行的活动。
- 替换风险:4/10.
销售专家
毫无疑问,大数据和人工智能可以用来彻底改变销售过程。从更准确的目标定位到行为预测,毫无疑问,它可以用来使销售更容易、更有效。
你可能已经在自己的生活中看到了这种效果,因为零售商收集和分析你的购买习惯来进行预测。那些商店的奖励卡和折扣钥匙扣的存在只有一个原因:收集你的数据进行分析。
这也已经持续了相当长的一段时间。早在2012年,塔吉特公司的数据挖掘在一个少女的父亲还不知道的情况下就确定了她的怀孕。而且从那时起,它只会变得更好。
当然,这意味着销售职业被淘汰了,对吗?还差得远呢。
立法者,尤其是欧洲的立法者,正在对许多使用算法和人工智能的最大科技公司进行严厉打击,其法律重点是隐私和消费者保护。谷歌正在减少用户跟踪;第三方cookies正在消失。在很长一段时间内,人工智能的技术飞跃在销售和营销方面的应用可能是有限的。
此外,询问任何有价值的销售人员关于达成交易的最重要的事情,他们中的十个人中有九个会告诉你同样的事情:信任。而信任始于个人关系,即使是最有说服力的人工智能也可能永远无法复制。
当然,这并不是说ChatGPT等在销售中没有用处。大多数销售部门已经使用CRM工具来帮助他们追寻热门的潜在客户并实现营销自动化。而嵌入网站的聊天机器人使信息收集比以往任何时候都更容易。
就像所讨论的几乎所有其他领域一样,ChatGPT有望重塑销售过程的面貌,并使行政工作自动化,但它永远不会取代实际的人际互动。
- 替换风险:1/10.
教育工作者
如果人是冷酷无情的机器,那就没有比死记硬背的输入更好的教育方式了。但人不是计算机,教育的意义远不止是传授知识。
任何编程、算法调整和数据处理都无法取代人类的无形资产,如耐心、纪律技能、友善和对学生福祉的真正关注。
与销售一样,无论技术如何进步,ChatGPT或其他人工智能工具似乎永远无法取代人类教育工作者。
但是,这并不是说它不会改变事情的完成方式。从评分到进度跟踪,从制定个性化的学习计划到提高可及性,有很多机会可以在这个领域使用这种令人兴奋的新技术。
- 替换风险:1/10.
律师
乍一看,法律似乎是人工智能肯定会取得大进展的一个领域。毕竟,除了一套成文的指令,法律是什么?
为什么不能用ChatGPT来分析法律文件、决定和先例,然后将这些知识应用于现实世界的案件?
还有人的因素要考虑。
反对刑事审判中强制性最低刑罚的主要论点之一是,每一种情况都是独一无二的。
对于民事审判、离婚诉讼、破产或其他法律问题,这一点也不例外。而且,由于法律领域处理的是人,而不是绝对的东西,所以总会有一些可能性,即使是最深的人工智能也无法解释。
由于ChatGPT的训练方式,仅以其研究为基础的法律论证不会考虑至少过去12个月的案例和决定。这在某些情况下可能是灾难性的。再加上它有时会出错的倾向,这个工具在法律界可能会变得比它的价值更麻烦。
虽然类似ChatGPT的技术可以证明对法律领域的研究和学术研究、自动化合同和表格,甚至加速司法程序等作用是有益的,但机器没有能力作出判决。
它们也不能保证没有偏见,乍一看,这似乎是它们相对于人类的主要优势。根据他们的训练方式,ChatGPT和其他聊天机器人很容易受到数据集偏见的影响,准确率也不到100%。
而这意味着法官的角色,更不用说热情而熟练的律师左右意见的力量,没有被计算机取代的危险。
- 替换风险:1/10.
小结
ChatGPT和其他采用机器学习和大数据来追求人工智能的程序可以是很好的工具。它们在减少甚至消除你必须执行的许多平凡的日常任务方面显示出巨大的前景。
而且,我们已经在生活的其他方面接受了这种技术–只要看看Alexa和Siri的受欢迎程度,或者成千上万的人欣然接受的任何品牌的机器人吸尘器。
为什么我们不希望更智能的机器也能让我们的工作生活更轻松呢?因为他们会的。
话虽如此,一些行业在未来几年或几十年内更有可能被机器取代。这些包括像接待员这样的职位,许多客户服务工作,包括出租车司机和卡车司机在内的驾驶工作,以及士兵。
对于像ChatGPT这样的人工智能工具如何被无良的个人或公司利用,人们也有正确的担忧。从学生在大学里作弊到伪造科学摘要,人工智能工具是否造成损害在很大程度上取决于我们如何使用它们。一些雇主可能比其他雇主更快尝试用人工智能削减成本。但由于准确性、道德和政治问题,也可能会看到阻力。
有一件事是肯定的–他们每取代一个职位,就会以其他方式付出代价,边走边创造新的机会和行业。
先不要担心ChatGPT对你的职业生涯可能意味着什么。
评论留言