IT之家4月16日消息报道,OpenAI联合创始人兼CEO萨姆・奥尔特曼(Sam Altman)在麻省理工学院“想象力行动”活动上接受采访,谈到了大语言模型(LLM)的发展趋势和安全问题。他指出,LLM的规模不再是衡量模型质量的重要指标,未来将有更多的方式来提升模型的能力和效用。他还将LLM的规模与过去芯片速度的竞赛进行了类比,强调我们更关注芯片能否完成任务,而不是它们有多快。OpenAI的目标是提供最有能力、最有用、最安全的模型,而不是为了参数数量而自我陶醉。
奥尔特曼回应了一封要求OpenAI暂停开发更强大AI六个月的公开信,他表示同意在能力越来越强大的情况下,安全标准也要提高。但他认为信件缺乏技术细节和准确性。他表示,OpenAI在发布GPT-4之前已经花了六个月以上的时间来研究安全问题,并邀请外部审计和“红队”来测试模型。奥尔特曼表示,OpenAI已经在这个领域工作了七年,付出了很多努力,而大多数人都不愿意这样做。他承认有时他和其他公司代表会说一些“蠢话”,结果发现是错误的,但他愿意冒这个风险,因为这项技术需要对话。