过去的9个月是人工智能的变革时期. In November 2022, ChatGPT was released by OpenAI. 在5天内,ChatGPT的用户达到了100万,这是一个了不起的壮举. 相比之下,Spotify花了5个月的时间才达到100万用户. Facebook在发布大约10个月后达到了百万英里大关. 

Since then, Microsoft committed to invest $10 billion in OpenAi, Microsoft has incorporated AI into its Bing search, and Google has released a competing AI product. 

Fast forward to today, 人们对生成式人工智能的普遍反应也从兴奋变成了褒贬不一. 用户们很快指出了他们的担忧,即这些应用程序是利用互联网来获取答案的——因为互联网可能充满了不准确和负面偏见的数据.  

KGO has followed these developments with much interest, 因为人工智能技术可能会对未来的工作产生巨大影响.  请继续阅读我们分享的主要研究结果,以及这将如何影响你自己的工作场所.

The Research Findings

Trust in AI is Achievable When You Build Trust in the Data Points 

The Trust in Artificial Intelligence毕马威和澳大利亚昆士兰大学的联合报告 indicates a direct relationship to the trust of AI and the field of expertise that the technology is used in. It turns out that the most trust in AI is typical in the Healthcare field.  

The report indicates that globally, 44%的受访者最信任医疗领域使用的人工智能应用. In addition, 全球50%的受访者愿意依赖并分享医疗领域使用的人工智能信息. 然而,这些人工智能应用程序并不是像ChatGPT那样的公共工具. 为医疗保健开发的应用程序从源和数据点提取数据,这些源和数据点的精度和准确性受到严格监控,因此受到用户的信任.  

When we thought more about this particular insight, 我们可以看到,医疗保健领域花费了最多的时间和精力来建立对数据完整性和诊断准确性的信任, recommendations, and treatments. 因此,人们可以认识到解决重大卫生问题所涉及的工作和关注. 这种信任和方法已经存在了几十年. For example, in the 1990s, 生物信息学被大量用于计算和分析,以寻找癌症和遗传疾病的治疗方法. Bioinformatics utilizes computer science, mathematics, physics, 和生物学来推动医疗保健专业人员可以自信地依赖的详细发现. In addition, the process in bioinformatics is heavily monitored, reviewed, revised, and updated to ensure the findings and results are sound.  

让用户信任像ChatGPT这样的生成式人工智能应用程序, the same rigor, routine, and methodology used in Healthcare AI needs to be adopted. 同一项研究还发现,信任与监管的实施方式直接相关. 例如,70%的人认为监管应该采取合作监管的形式. 此外,67%的人认为政府和现有监管机构应该执行监管. In comparison, 另有67%的人认为,一个独立的监管机构应该存在于创造产品的科技公司之外. 

The Relationship between AI and People is a Partnership 

The “Trust in Artificial Intelligence” report provides greater detail on 受访者如何看待人类与人工智能之间的协作水平. 45%的人认为人类和人工智能之间的正确合作伙伴关系是75/25,而35%的人认为人类和人工智能之间的关系应该是75/25 saw the partnership as a 50/50 split.  

Matt Headshot KGO

KGO’s Director of Innovation & 马修·泽维尔(matthew Xavier)最近参加了IFMA关于人工智能的会议. See what he has to say about AI at the 5-minute mark.

The Achieving Individual – and Organizational – Value with AI report, a study compiled by MIT Sloan and BCG, 引用了一种方法来帮助专业人士真实地看到人工智能的价值,我们也同意. 管理人员在帮助专业人士看到使用人工智能的真正价值方面至关重要. 这种方法通过信任、理解、代理和意识来促进真正的使用和价值. 

Trust 当管理者培养和鼓励员工使用人工智能,同时支持他们的批判性思维和健康的怀疑态度来解释结果时,就会发生这种情况. 这不仅促进了信任,而且也是一个定期监测数据准确性的框架, as stated in the previous insight. 

Understanding comes from the regular use of AI-based applications. 这种理解有助于他们对数据的理解,可以帮助他们更好地与工程师和数据科学中小企业的同事联系. 理解还可以帮助员工加强他们的能力和365买球基础.  

Agency 要求强制使用人工智能,同时使其易于使用,并支持员工的批判性思维技能. As stated earlier, 在使用人工智能时,支持员工批判性思维和健康怀疑的管理者认为,从长远来看,使用人工智能的员工会有更大的个人选择. 从而使人工智能成为员工工作流程的固有习惯.  

Awareness 需要提高其他员工如何使用人工智能以及人工智能如何与整个组织的决策过程相关的透明度. 促进人工智能对个人员工和整个组织的重要性,支持其使用. Individual use drives value for the organization.  

In Conclusion

营造人工智能使用是一种伙伴关系的365买球,并推动员工个人价值的提升. As a result, companies and organizations will see significant 使用、采用和更大的点对点关系建立.  

In order for this to happen, 人工智能软件必须在其用户社区中建立信任感. 如上文所述,遵循类似于医疗保健行业的路径,可能会带来最大的成功. 

看到流行的人工智能软件系统如何继续增长将是一件有趣的事情, 更重要的是,用户和工作人员将如何看待这项新技术. 

In Part 2 of the AI blog series, KGO将深入研究这个问题,因为它与员工生产力有关, work behavior in general, and what it means for the greater workplace. 

Stay Tuned for Part 2

今天咨询我们的战略和咨询专家之一,为您的办公室和员工提供组织培训,为这个充满人工智能技术的新世界做好准备.