文思AI产品笔记
首页
最新文章
AI编程
AI架构
关于我
  • AI生态圈
  • AI大模型
  • 多维表格
  • AI创业笔记
  • AI落地案例
  • 个人产品推介
  • 问题集
  • 简体中文
  • English
首页
最新文章
AI编程
AI架构
关于我
  • AI生态圈
  • AI大模型
  • 多维表格
  • AI创业笔记
  • AI落地案例
  • 个人产品推介
  • 问题集
  • 简体中文
  • English
  • AI日志

    • 第一天上线
    • 20251211-创业者的独特优势.md
    • 20251212-gpt5发布
    • 20251213-mvp的关键方法
    • /ai-vlog/202512/20251213-%E4%BF%A1%E6%81%AF%E8%81%9A%E5%90%88%E7%BD%91%E7%AB%99.html
    • 回家路的决策感悟:为什么聪明人总在"省钱"上吃亏?
    • 躺平思考
    • 多巴胺与计划:如何避免被"期待"奴役

1 第一次尝试-python

最开始的设想是:

  1. 为了快速建模上线先做一个demo网站模板,看看效果,是不是一个好网站,这里包括如下内容:
    • 公司:建立公司数据源
    • 产品:建立产品数据源
    • 模型:建立内部模型库
    • 事件:用公司、产品、模型追踪大公司时间,存储每天每周重要事件
  2. 快速用python爬取处理建立的信息集合,然后写爬虫或者rss订阅相关数据

虽然能快速生效查询到这些结果,但是我发现这不是一个合格的工作流:

  1. 文档很杂乱,每个公司每年都有太多事件,分析和处理这些事件都不换算
  2. 大模型本身的数据集有限,可以很好的过滤,但是近期一年的事件都没有
  3. 适用python存储的原始网页、数据都没有什么意义,后续还是需要大模型进一步分析,后续还是体力活多
  4. 不能形成一个有效的sop,后续做自动化开放量还是不少。

image-20251213091000545

image-20251213091101004

再进一步分析这里有如下问题:

  1. 数据采集、数据过滤、数据加工、数据展示其实是一个职责分明的工作,每个功能都有自己的职责,用python脚本可以做好采集或者过滤或者加工,但是强行把他们结合汇总很麻烦——不是职责单一的设计,也不便于未来丰富的拓展需求。
  2. 数据过滤和数据加工本身如果有轮子就不建议自己造,大模型就属于自己造轮子

2 第二次尝试:飞书多维表格

最近更新: 2025/12/13 13:45
Contributors: wsyx
Prev
20251213-mvp的关键方法
Next
回家路的决策感悟:为什么聪明人总在"省钱"上吃亏?