人工智能:有时候取代人类是一件非常好的事情。

过去几年来,Meta、Anthropic、阿里巴巴、Mistral 和其他公司一直在发布开源大型语言模型 (LLM/AI),但我认为 Meta 是第一个有充分理由这样做的公司。他们正在以一种非常特殊的方式取代人类工人,这是一件好事。这对每个人来说都是一件美妙的事情。 

我是一名软件开发人员和发明家,我喜欢使用各种开放技术,比如大型语言模型 (LLM),尤其是本地实例。我正在开发一些我自己使用的工具,我计划将其开源,我就是喜欢这种感觉,感觉就像是全新的事物。这感觉就像是 Commodore 64 或 Apple IIe 的早期时代——一个创意的游乐场。我可以在本地机器上工作,尝试一些愚蠢的小实验,弄得一团糟,追求愚蠢的想法,而无需向第三方支付特权费用。没有人收集我的数据,它是孤立的。这让我可以免费进行实验。

我一直在关注许多开源模型,但主要是下载并评估它们,然后删除那些我觉得不再满足我需求的模型 — — 我只是在寻找一个更好/更小/更快的模型,除了遵循指令或编码之外没有其他实际要求。结果和宽松的许可是我目前唯一关心的。有些模型运行良好,但仅用于研究。如果我打算发布任何工具,这些模型(无论对我的用例有多么理想)都不是我可以与我的代码一起发布的东西。我只需要提供如何下载模型的建议,或者被迫购买许可证或服务,我可能觉得对于这样一个小型/个人工具来说,这些许可证或服务是不合理的。

扎克伯格与时代精神

马克·扎克伯格最近做了很多调整公众形象的工作。我觉得这一切都是经过深思熟虑的,因为其他科技公司的首席执行官在公众形象方面都非常负面。除了树立新的形象之外,他的公司 Meta 还拥抱开源,创建并促进 Llama AI 语言模型的开发。与之形成鲜明对比的是,名字颇具讽刺意味的 OpenAi,它最初怀有开源的愿望,但很快就闭源以专注于利润。虽然有几家公司也纷纷效仿,发布了自己的模型,但很少有公司像 Meta 那样提供可从根本上修改的模型。最初,这些策略看起来像是在寻找问题的解决方案。也许他们可以将 LLM 用于广告、修改/编辑副本、VR 或任何其他蓝天开发工作。机会是无限的,但目前现实世界的应用却不是。这个工具很有趣,但除了“成为最好的开放 AI”之外,没有真正的商业案例。

但随着 Llama 3.2 的发布,我相信 Meta 已经朝着一个非常重要的目标迈进了一步,这个目标直接影响到他们的底线和社交媒体平台的可持续增长。

策展为王

内容审核、社区管理是社交媒体的命脉。如果没有某种程度的审核,或者至少没有管理有用的内容,我们最终会得到一个对他们希望培育的社区产生毒害和破坏的平台。一些平台已经过度利用愤怒来牟利(在这里我批评了 Twitter/X),以至于管理的概念已经完全消失了。你曾经可以找到其他志趣相投的人在创作内容,但现在你却发现一片充满尖叫和仇恨的荒原。它的目的是冒犯你、激怒你、让你浪费宝贵的时间和财富,看着火车失事,寻找哪怕一丝希望。

Facebook 有一个你永远不会发现的问题。

几年前,我遇到了一件我从未考虑过的事情。当你标记某些内容或将其视为有害内容时,必须有人审查你标记的内容,以决定它是否真的违反了规则。这似乎是可以接受的,也是必要的。而且,你的一部分认为,许多这样的报道可能是记者的过度反应。当然,有人发布了一些有害的政治内容——但它真的违反了规则吗?也许吧。但审查是有用的,有帮助的。没什么大不了的。

我没有想到的是那些不好的内容。不是你小镇 Facebook 群组中某个恶毒邻居的帖子,而是真实的死亡、肢解、折磨、虐待等。显然,无论出于什么原因,真正的人类都会将这些内容发布在可能造成更大伤害的地方。但当你点击“举报”时,另一个人必须查看内容并决定它是否违反了这些规则。这已经足够令人震惊了。

现在想象一下,你每天的工作就是如此,8-10 小时。一遍又一遍,这些图像和内容压垮了你的灵魂。每天,试图保护社区的人们都在遭受这种精神折磨。

以下是 BBC 关于这个主题的一篇文章:

Facebook 管理员:“每天都是一场噩梦”

这是社交媒体管理员首次向议会委员会作证。 

顿悟时刻

今天,我检查了上传的新快速/小型模型……我第一次看到了LLama-Guard-3–1B 。回顾一下存储库,看起来他们已经研究 11B 和其他守卫模型一段时间了。

现在,1B 模型(10 亿个参数)对于 LLM 来说非常小,但它表明 Meta 正在积极寻求训练其数据集以实现此功能。相比之下,1B 模型可能可以在您的手机上运行。32B 或更高(或像 Meta 的 405B 这样的大模型)可能更适合详细或细致的工作,通常在更大的服务器上运行。我猜想他们的内部系统运行的参数版本比这些更高。但这种开放模式将允许小公司对其策划的社区和内容实施某种控制。每个人都是赢家。

但需要注意的一个细节是,“Guard”模型被认为是多模态的,其中包括“视觉”——这允许对图像进行分类和分析,或创建文本摘要。你可以给它提供一张图片,模型可以总结图片所描绘的内容。

Meta 实际上正在尝试解决这个问题,并且他们正在与大家分享这项工作。

这是一项不需要人类做的工作

有些工作是人类想做的,有些工作是人类不想做的,但人类做了;有些工作令人不快,但机器可以做;有些工作人类不应该做。这些工作对工人有伤害。

自动化处理核废料或剧毒物质是一个简单的概念,很少有人会对此提出异议。这项工作也不例外。

有些工作人类可以做,但不应该做。这些工作对于每个人的安全和福祉都是必要的,但却以牺牲个人利益为代价。这些工作非常适合机器智能。

减少危害

不幸的是,这种节制的必要性是一个完全独立的概念。它不应该是必要的,但人们很混乱,这是迈出的一大步。21 世纪的核心教训是减少危害。禁毒战争?我们文明的巨大失败。减少危害和监管?不完美,但更好。接受人是人,努力建设一个稍微好一点的世界。

这是人工智能的一个伟大应用,我希望它能从人类手中夺走这些工作……或者至少将工作量降低到人类不会因为想要一份能够维持生计的工作而患上创伤后应激障碍或终生精神健康问题的程度。

这是一件好事。

点赞 (57) 分享