佰富彩 - (中国)企业百科
佰富彩2023-01-31 16:05

ChatGPT搞钱行不行******

  一系列的试探之后,AI聊天机器人ChatGPT的收费计划浮出水面。当地时间2月1日,人工智能实验室Open AI在其官网宣布将推出“ChatGPT Plus”付费订阅版本,每月收取20美元。免费了两个月,月活用户却达1亿的ChatGPT,终于踏上了自己的“赚钱路”,由此,AIGC商业化落地的探讨也陡然升温。不少人迫切地想知道,ChatGPT Plus会不会是AIGC从烧钱到赚钱的关键转折。

  免费服务仍将继续

  “新晋顶流”ChatGPT用收费计划再次搅动了AI圈的一池春水。根据Open AI的公告,订阅ChatGPT Plus服务的用户,即使在高峰时段,也可获得该聊天机器人更快速的回应,而且可以提前体验新功能和改进。

  去年11月,ChatGPT横空出世,不仅能够通过学习和理解人类的语言与用户进行对话,还能根据上下文互动,甚至能够完成撰写文案、翻译等工作。得益于这种突破性的使用体验,ChatGPT迅速蹿红。

  当地时间2月1日,瑞银发布研究报告称,截至今年1月,近期爆火的ChatGPT在推出仅两个月后,其月活跃用户估计已达1亿,成为历史上用户增长最快的消费应用。同样的成绩,海外版抖音TikTok在全球发布后,花了大约9个月的时间,Instagram则花了两年半的时间。

  但大量用户涌入的同时,也导致ChatGPT经常在流量压力之下无法提供及时的回应,此次收费版的ChatGPT Plus针对的便是这一痛点。

  据悉,付费计划将在未来几周内首先在美国推出,然后扩展到其他国家。但ChatGPT Plus的推出并不意味着取代免费版的ChatGPT,Open AI表示,将继续为ChatGPT提供免费访问。

  烧不起的模型成本

  尽管只推出了两个月,但Open AI对于ChatGPT的收费计划却已经暗示了有一阵子。早在1月初,Open AI就曾提出过专业版ChatGPT的计划,宣布“开始考虑如何使ChatGPT货币化”,并公布了一项调查。什么价格以上会无法接受?什么价格以下会觉得太便宜?诸如此类关于定价的问题皆在其中。

  有用户曾在社交媒体上提问ChatGPT是否会永久免费,对此,Open AI首席执行官Sam Altman回应称:“我们将不得不在某个时间点,以某种方式将其商业化,因为运算成本令人瞠目结舌。”Sam Altman曾透露,ChatGPT平均每次的聊天成本为“个位数美分”。

  “这类大模型训练成本非常高。”在接受北京商报记者采访时,瑞莱智慧高级产品经理张旭东表示。

  但相对训练来说,模型推理,也就是用户提交输入模型输出结果的过程,这一成本会更高。“据说ChatGPT在开放测试阶段每天要花掉200万美元的服务器费用,所以前段时间免费的公测也停止了,如何降低模型推理的消耗也是目前的一个重要研究问题。”张旭东称。

  “钱景”在哪

  长久以来,广阔的市场前景和难以盈利的现状几乎成为了AI领域难以平衡的理想和现实,对ChatGPT或者说是以ChatGPT为代表的AIGC也是一样。

  洛克资本副总裁史松坡对北京商报记者分析称,ChatGPT受到广泛认可的重要原因是引入新技术RLHF,即基于人类反馈的强化学习。在史松坡看来,ChatGPT是一个高效的信息整合助手,可以取代大量人类中初级助理的角色。

  但他同时提到,目前ChatGPT在海外英文环境中已经能胜任图画创作、音乐创作、文字整理、信息搜集综合、基础编程和金融分析,但还不能胜任高频度的人类主观决策,比如大型投资决策、政治战略决策等。

  天使投资人、知名互联网专家郭涛认为,ChatGPT在重塑众多行业或场景的同时也孕育着巨大的商机,将推动众多行业快速变革,有望在AIGC、传媒、娱乐、教育、客户服务、医疗健康、元宇宙等领域快速落地,具有万亿级市场规模。

  张旭东认为,AIGC商业化落地还需要结合应用场景,目前基于生成式大模型的商业应用案例还比较少,就以当下的技术水平看,一两年内达到很好的AGI(通用人工智能)水平还是不太现实的,所以一定需要有垂直领域的创新公司来基于OpenAI等公司的工作来寻找合适的场景落地。

  AIGC商业化,侵权与被侵权

  AIGC要想商业化,场景只是其一。伴随着ChatGPT的爆火,争议始终并行,比如AI绘画面临的版权探讨。学术界也已针对ChatGPT做出了反应,权威学术出版机构Nature规定,ChatGPT等大模型不能被列为作者。纽约市教育部门曾表示,纽约公立学校的所有设备和网络上将禁止使用ChatGPT。

  张旭东认为,目前AIGC最为成熟的应用在内容作品创作上,但从专业角度看,AIGC属于模仿创新,并不具备真正的创造力,AIGC的作品可能对一些艺术家、创作家的风格题材造成侵权;另一方面,AIGC作品也存在被他人侵权的风险。

  此外,就安全性问题而言,AIGC这种深度生成能力很可能被滥用于伪造虚假信息,比如生成一些敏感性的有害信息,甚至伪造新闻信息恶意引导社会舆论,而且这些生成式内容难以分辨追踪,大幅增加对信息治理的挑战难度。信息获取也是AIGC需要解决的问题之一。

  郭涛则提到,当前AIGC赛道尚处于孕育探索阶段,存在关键核心技术不成熟、免费素材资源较少、内容堆砌且质量参差不齐、成熟的商业应用场景较少、相关法律法规不健全及技术伦理挑战等突出问题,短期内还难以实现大规模商业化应用。

  北京商报记者 杨月涵

佰富彩

人工智能如何做到可信、可用?专家热议:把责任归结到个人******

  中新网北京12月11日电 人工智能治理的理想状态,是人工智能技术能做到可知、可信、可控、可用。而在现实中,人工智能技术手段虽然非常强大,但是离完美、完善仍有相当的距离。从技术角度和技术应用角度,人工智能的发展如何做到扬长避短?

  近日,在2022人工智能合作与治理国际论坛上,专家围绕该话题进行了讨论。

  中国工程院院士、鹏城实验室主任高文认为,现阶段很多技术还处于发展的过程中,如果过早地说这个不能用、那个不能用,可能会抑制技术本身的发展。但反过来,如果什么都不管,也不行。

  “因此,现在更多还是从道德层面多进行引导。同时,做技术的人,也要尽量把一些可能的风险、抑制工具,即约束风险的工具,尽快想明白。自己也做,同时号召大家做,两者结合。”他说。

  清华大学智能产业研究院国强教授、首席研究员聂再清认为,我们要保证能够创新,但同时不能让创新对我们的生活产生破坏性的影响,最好的办法就是把责任归结到个人。

  “技术的背后是有人在控制的。这个人应该时刻保证工具或创新在危险可控的范围内。同时,社会也要进行集体的监督,发布某个产品或技术,要能够召回、撤销。在创新和监管之间,当然是需要平衡的,但归根结底,还是要把责任落实到个人身上。”他指出。

  瑞莱智慧RealAI公司联合创始人、首席执行官田天补充道,在技术可解释性方面,需要去进行技术发展与相应应用场景的深度结合。大家需要一个更加可解释的AI模型,或者更加可解释的AI应用。

  “但我们真正想落地的时候,会发现每个人想要的可解释性完全不一样。比如:模型层面的可解释,可能从研发人员角度觉得已经很好了,但是从用户的角度是看不懂的,这需要一些案例级的解释,甚至通过替代模型等方式进行解释。因此,在不同领域,需要不同的可解释能力,以及不同的可解释级别,这样才能让技术在应用场景发挥最好的作用。”他说。

  将伦理准则嵌入到人工智能产品与系统研发设计中,现在是不是时候?

  高文认为,人工智能软件、系统应该有召回的功能。如果社会或伦理委员会发现这样做不对,可能带来危害,要么召回,要么撤销。

  高文说,应用的开发者,系统提交或者最终用户让他去调整的时候,他应该有责任。如果开发者发现已经踩线了,应该给他一个保护机制,他可以拒绝后面的支持和维护,甚至可以起诉。“不能只说哪一方不行,光说是开发者的责任,他可能觉得冤枉,因为他只提供工具,但有时候是有责任的,只是说责任怎么界定。”

  “在人工智能的发展过程中,一方面要建立一些红线。”田天建议,比如,对于人工智能的直接滥用,造假、个人隐私泄露,甚至关联到国家安全、生命安全的,这些领域一定要建立相关红线,相应的惩罚规定一定要非常清晰,这是保证人工智能不触犯人类利益的基本保障。

  “在这个基础上,对于处于模糊地带的,希望能留有更多空间。不光是从限制角度,也可以从鼓励更加重视伦理的角度,促进合规地发展。”田天称。

  2022人工智能合作与治理国际论坛由清华大学主办,清华大学人工智能国际治理研究院(I-AIIG)承办,中国新闻网作为战略合作伙伴,联合国开发计划署(UNDP)、联合国教科文组织(UNESCO)等国际组织、国内外学术机构支持。(中新财经)

中国网客户端

国家重点新闻网站,9语种权威发布

佰富彩 地图