19岁创业者获谷歌AI负责人等力挺,Supermemory以知识图谱赋能AI长期记忆
在人工智能技术飞速发展的今天,AI模型的上下文处理能力成为制约其应用场景扩展的关键因素。尽管近年来模型的"记忆窗口"持续扩大,但跨会话保持上下文连贯性仍是行业痛点。印度裔创业者德拉夫亚·沙阿(Dhravya Shah)带领的Supermemory团队,正通过构建通用记忆API重新定义AI的长期记忆解决方案。
免费影视、动漫、音乐、游戏、小说资源长期稳定更新! 👉 点此立即查看 👈
这位年仅19岁的创业者早在高中时期就展现出技术天赋。在准备印度理工学院入学考试期间,他开发的推文排版机器人被社交媒体工具Hypefury收购,这笔交易不仅为他带来第一桶金,更坚定了其技术创业的决心。随后他选择赴美就读亚利桑那州立大学,并给自己设定了"40周持续创新"的挑战。在第三周,他开发出能对话Twitter书签的原型工具Any Context(后更名为Supermemory),并开源在GitHub平台。
Supermemory的核心突破在于多模态记忆图谱的构建能力。通过自然语言处理技术,系统能从文档、邮件、聊天记录等非结构化数据中提取关键信息,形成可检索的知识网络。这种能力使得写作应用能追溯月前的创作记录,邮件客户端实现智能搜索,视频编辑者可通过文字提示快速定位素材。技术团队特别强调其低延迟特性,相比Memories.ai等竞品,在处理复杂数据时的响应速度提升显著。
沙阿的创业轨迹在2024年迎来转折。获得Cloudflare实习机会后,他迅速晋升为开发者关系负责人,期间得到CTO丹恩·内赫特(Dane Knecht)等高管的指导。当团队决定将原型产品化时,包括谷歌AI负责人杰夫·迪恩(Jeff Dean)、DeepMind产品经理洛根·基尔帕特里克(Logan Kilpatrick)在内的科技领袖纷纷加入投资阵营。最终项目完成260万美元种子轮融资,由Susa Ventures领投,OpenAI、meta等公司高管跟投。
目前Supermemory已形成完整的产品矩阵:Chrome扩展程序支持网页内容即时存储,移动端应用实现跨平台记忆同步,开发者API则开放了知识图谱构建能力。其客户群涵盖AI视频编辑器Montra、智能搜索引擎Scira等新兴企业,甚至延伸至机器人视觉记忆领域。技术团队特别开发了与Google Drive、Notion等工具的深度集成,用户可通过简单对话完成复杂数据的记忆关联。
在竞争激烈的AI记忆赛道,Supermemory的差异化战略逐渐显现。相比专注特定场景的Letta或Mem0,其通用型解决方案能适配从消费级应用到企业系统的广泛场景。投资方Browder Capital的约书亚·布劳德(Joshua Browder)评价道:"德拉夫亚展现出的技术洞察力和执行力,让我们看到AI基础设施领域的新可能。"这位"机器人律师"DoNotPay的创始人透露,正是沙阿在X平台展示的快速迭代能力促成了投资决策。
尽管已获得Y Combinator等机构的关注,沙阿选择先聚焦产品打磨。当前团队正优化多语言支持与边缘计算部署,计划未来六个月内将延迟控制在50毫秒以内。随着AI代理(Agent)市场的爆发,这家初创公司正站在记忆层技术革命的前沿。
游乐网为非赢利性网站,所展示的游戏/软件/文章内容均来自于互联网或第三方用户上传分享,版权归原作者所有,本站不承担相应法律责任。如您发现有涉嫌抄袭侵权的内容,请联系youleyoucom@outlook.com。
同类文章
吉利银河之光第二代北京车展亮相 智擎混动技术革新绿色出行体验
在第十九届北京国际汽车展览会上,吉利汽车以一系列创新成果成为全场焦点 展台上,全新发布的银河之光第2代概念车、原生新能源越野架构,以及i-HEV智擎混动技术,共同勾勒出吉利在新能源与智能化领域的战略版图。这不仅仅是几款产品的展示,更像是一次技术路线的集中宣言。 产品落地与技术普及双线并进 具体到产品
知识图谱AI构建!复杂知识点可视化,理解更轻松
知识图谱AI构建:五种方法,让复杂知识一目了然 面对海量、零散又抽象的知识点,是不是常常感觉理不清头绪?问题很可能出在缺乏结构化的梳理和可视化的呈现。将知识转化为图谱,恰恰是破解这一困境的利器。下面这五种AI构建方法,几乎覆盖了从技术极客到纯小白的全部需求场景,总有一款能帮你轻松跨越从0到1的门槛。
用Minimax进行SEO文章撰写:关键词布局与自然度控制
用Minimax进行SEO文章撰写:关键词布局与自然度控制 如果你用Minimax生成的SEO文章,总感觉关键词生硬堆砌,排名纹丝不动,甚至被搜索引擎判定为低质内容,那问题很可能出在两个地方:关键词布局失当,以及文章自然度失控。别急,这并非工具本身的问题,而是方法需要优化。下面这套系统性的操作路径,
代码自动审查_本地大模型充当程序员副驾
可本地运行开源大模型实现离线代码审查:部署轻量模型、集成提示词、绑定IDE插件、配置Git钩子与上下文感知分析 跨越从0到1的创作门槛,AI智能助手能提供诸多便利。但当你处理敏感代码,希望完全避免云端传输时,一套本地的、自动化的代码审查方案就显得尤为关键。 将敏感代码上传至云端总伴随着潜在风险。那么
Llama 3 批量推理配置_处理十万条数据需要预估多少时间成本
一、基于 vLLM 引擎的吞吐反推法 如果你已经部署了vLLM服务,并且能拿到实时的性能监控数据,那么用吞吐量反推总耗时,可能是最直接、最贴近实际的方法。这个思路的核心就两点:一是你当前服务的稳定吞吐能力,二是你那十万条数据到底“吃”多少token。 首先,你得拿到一个可靠的基准数据。查看监控指标v
- 日榜
- 周榜
- 月榜
1
2
3
4
5
6
7
8
9
10
1
2
3
4
5
6
7
8
9
10
相关攻略
2015-03-10 11:25
2015-03-10 11:05
2021-08-04 13:30
2015-03-10 11:22
2015-03-10 12:39
2022-05-16 18:57
2025-05-23 13:43
2025-05-23 14:01
热门教程
- 游戏攻略
- 安卓教程
- 苹果教程
- 电脑教程
热门话题

