先做个广告:如需代注册GPT4或充值 GPT4.0会员(plus),请添加站长微信:gptchongzhi
需求背景
竞品分析是产品经理的日常工作,涉及产品功能、客户案例、解决方案、定价策略等多个维度。通常产品经理定期会对竞品做系统性的梳理,来明确当前行业的竞争态势,但这种定期的分析通常会有一定的滞后性。对于连接器产品来说,产品能力、应用场景日新月异,我们需要周粒度甚至天粒度来捕捉业界动态并同步到团队成员。而要满足这样的频率更新要求,数据采集、分析、汇总,各个过程耗时费力,只靠人工收集和整理,显然有些力不从心。
实操步骤
1)实现方式
这里重点是介绍场景方案和实现思路,至于实现方式,大致有两条路径:- 零代码路径:ChatGPT Plus + Link Reader Plugin
- 劣势:自动化程度低,需要手动抓取公众号链接进行数据投喂学习
- 全代码路径:AutoGPT or LangChain + RPA(用于公众号页面链接抓取)
鉴于笔者时间限制,本文重点介绍「零代码路径」的实现方式和亲测效果。零代码路径需要用到 ChatGPT Plugin,因此需要 ChatGPT Plus 会员,可以通过美区 Apple ID 购买礼品卡的方式充值流程还比较顺畅,建议采用这种方式来配置,目前已知最安全最可靠的充值方式了。如果觉得 ChatGPT Plus 会员门槛还是太高,钉钉目前在白名单一个机器人的功能,可以投喂材料学习,进行交互对话,同样也能达到相关的效果。但前提是要钉钉的白名单。ChatGPT 目前还无法直接从 URL 链接中进行学习,因此这里需要安装一个「Link Reader」,来解决数据投喂的问题。在 ChatGPT Plugin store 中找到「Link Reader」插件,安装即可。提示语是重点,首先我给他指定了一个角色(Role):竞品分析助理。同时告知它什么时候学习输入材料,什么时候分析输出结果。需要明确的一点,考虑到 GPT 的正儿八经瞎说的问题,这里我显示将 temperature 设置成0(少胡诌),同时明确说明要从学习材料中提内容进行分析,而不是模型先前学习的语料。你现在是我的竞品分析助理,我持续将竞品动态链接发送给你,然后你提取、保存并学习链接中内容以及文章的发布时间,接着我们通过对话的方式,来帮我整理、汇总竞品信息。
当我输入:
学习:{http url}
的时候,你要提取、保存并学习{http url}中的内容,在完成这个步骤后,生成相关摘要,以及文章的发布时间。
当我输入:
分析:请输出竞品的近期发布的功能
的时候,你要结合先前从{http url}中学习到的知识,按照我的分析要求,给我汇总分析后的答案。
需要注意的是,将temperature设置成0,学习和分析过程都要以尊重连接内容的真实性为前提。如果学习的内容还不足以回答分析的问题,请你诚实的告诉我你需要学习更多的内容才能回答这个问题。明白了吗?
回复还不错,GPT 知道 URL 得用 Link Reader 进行提取,同时向我「保证」它会「诚实」。这里我先是让 GPT 学习了一篇公众号的文章,同时问了一个公众号中没有提到的信息:腾讯轻联产品发布时间。GPT 回答看起来是靠谱的,至少没有胡诌。(考虑轻联产品品牌是今年升级的,模型本身没有相关的素材,这里验证效果可能会有失真,读者可以用其他产品做相关的验证)。后续就是繁琐的人工投喂,GPT 学习的过程了。将产品公众号上的近一个月的推文和产品动态页发给 GPT 进行学习,摘要生成得还不错,但是文章发布时间还是有小 BUG,没有正确提取到文章的发布时间。结果符合预期,而且还告知内容出处,便于后续进一步验证。这里给到的引用链接就不太正常了,这些内容实际上是来自于几篇公众号的推文,而不是产品官方文档。而且发布的时间线也不太对。不过在这个例子中,有被 GPT 的「思维链」和强大的推理能力惊艳到。我对投喂的学习材料进行了确认,原文中并没有明确说明“腾讯广告、巨量引擎、百度营销 ”是连接器,仅仅只有下面截图的简短说明。但是 GPT 通过极少样本的学习和归纳,得出它们仨是连接器的结论,并且还是对的。至于 GPT 的真实性问题,目前其实有比较多的解决方案,现阶段可以结合结合 embedding + 向量数据库的能力,做到有据可查是完全没有问题的。例如我之前在体验 ChatDOC 的 PDF 分析能力的时候,AI 在答案下方,给到一个引用出处的链接,可以直接定位到原始内容,在一些严谨的分析报告中(论文分析、财报分析、竞品分析),给人类一个 double check 的交互,这也不失为一种好的解决方案。接着问:腾讯轻联近期在生态建设方面有哪些具体的动作?效果一般,部分产品能力和客户案例严格意义上不算是生态部分的内容。最后让 GPT 整理了下近期的客户案例和应用场景,这个效果还不错。这里可以延伸一下,作为产品的自身的知识库,后续售前同事想要一些客户案例、应用场景这些信息,完全可以自取了。
总结
整体体验下来,还有不少人工操作的地方,尤其是在数据采集这里,受限于公众号平台的限制,这里无法做到自动更新同步,要定期增量同步呢,需要一个类似抓包工具甚至 RPA 才能实现。从当年淘宝对搜索引擎的爬虫的封杀,到现在 Stackoverflow 对 OpenAI 的控诉,难的不是 API 实现技术,难的是其中入口流量、商业模式和利益分配。LLM 大模型目前已经一项基础设施,上层应用要想构建自己的护城河,「数据」将显得尤为重要。这个数据既是链家中的房源、交易这种私有数据,也是应用沉淀下来的场景数据。
本文链接:https://gpt-4o.net/chatgpt/61.html
网友评论