Open AI公司删除禁止技术用于军事用途条款,引发业内关注
在全球范围内,人工智能(AI)技术的发展已经取得了令人瞩目的成果。然而,与此同时,人们也越来越关注这项技术可能带来的负面影响,特别是在军事领域的应用。据美国调查新闻网站“拦截者”报道,Open AI公司在其AI模型的使用条款中删除了“禁止将其模型用于军事用途”的相关规定。这一举动引发了对Open AI公司立场转变的关注,以及对人工智能技术应用于军事领域可能产生的影响的担忧。
据悉,Open AI公司是一家致力于研究和开发先进AI技术的公司。自成立以来,Open AI一直秉持着一些基本原则,其中包括禁止将其技术用于可能对人类造成伤害的用途。例如,Open AI在其AI模型的使用条款中明确规定,禁止将其模型用于导致人员伤亡的用途,如“研发武器”和“军事与战争”。这些规定旨在确保Open AI的技术不会被滥用,从而避免对人类社会造成不必要的危害。
然而,最近Open AI公司却对其使用条款进行了调整。根据“拦截者”网站的报道,在今年1月10日之前,Open AI公司在其AI模型的使用条款中曾明确表示,禁止将其模型用于很可能会造成人员伤亡的用途上,比如“研发武器”和“军事与战争”。然而,在对使用条款进行调整后,Open AI公司虽然在禁止项中仍然提到“禁止将其产品、模型和服务用于会导致人员伤亡的用途”,并提到了“武器开发和使用”,但先前同样被禁止的“军事用途”已被删除。
对此,Open AI表示:“我们不允许研发的工具被用于伤害人类、开发武器、进行通信监视、伤害他人或破坏财产。但部分国家安全议题与我们的使命相符。我们已经与 美国国防部高级研究计划局(DARPA)合作,推动创建新的网络安全工具,以保护关键基础设施和部分行业所依赖的开源软件。”
有分析认为,随着人工智能技术的发展日臻成熟,其不利影响尤其是该项技术可能被用于战争用途一直是业界关注的焦点。ChatGPT以及Bard等生成式人工智能技术的推出进一步引发了人们的担忧。据此前报道,谷歌前首席执行官埃里克·施密特曾将人工智能技术的面世与二战前的核武器研发进行类比。施密特说:“每隔一段时间,就会出现一种新武器和技术,从而改变一切。爱因斯坦在20世纪30年代给罗斯福写了一封信,提出有一种新技术即核武器可以改变战争。事实证明确实如此。”
近年来,随着人工智能技术在各个领域的广泛应用,如何确保这些技术的安全性和可靠性变得越来越重要。在此背景下,Open AI公司选择与美国的国防部门展开合作,以推动网络安全工具的研发,这无疑引起了许多人的关注。然而,这种做法是否意味着Open AI将在未来为军事用途提供支持,仍有待观察。
此外,此次Open AI公司对使用条款的调整也引发了对其他AI公司的警示作用。面对日益发展的AI技术,各公司必须谨慎行事,以确保其技术不被滥用。只有这样,才能为人类社会带来更多的利益,而非灾难。
总之,Open AI公司删除了其AI模型的使用条款中的“禁止将其模型用于军事用途”的规定,引发了人们对该公司立场的关注和对人工智能技术应用于军事领域可能产生的影响的担忧。尽管Open AI表示将继续坚持安全、可靠的原则,但在实际操作中,如何确保其技术不被滥用仍是一个亟待解决的问题。同时,这也对其他AI公司提出了警示,让他们意识到在面对日益成熟的AI技术时,必须保持审慎态度,以确保技术造福人类而不是成为威胁。