据站长之家 1 月 8 日报道,AI 初创公司 Anthropic 近期面临艰难处境。该公司旗下 AI 产品 Claude2.1 推出后,许多用户发现其变得难以沟通和使用,经常无故拒绝执行命令。
问题的根源在于 Claude2.1 严格遵循其发布的 AI 伦理宪法,在安全和道德判断上变得过于谨慎和守法。这导致 Anthropic 在追求 AI 安全的过程中,不得不牺牲部分产品性能。大量付费用户对此表达了强烈不满。他们纷纷在社交平台上抱怨 Claude2.1“已经死了”,并表示准备取消订阅转而使用竞争对手 ChatGPT。
业内人士指出,Anthropic 的困境再次凸显了创业公司在 AI 领域面临的两难。为确保 AI 安全严格自律无疑是正确的方向,但过度考量道德和法律后果可能让公司失去先机,并在日益激烈的竞争中处于下风。
领取专属 10元无门槛券
私享最新 技术干货