4月10日

AI资讯速递2个月前发布 大Joe
157 0

4月10日·周四 AI工具和资源推荐

AI全网资源导航-aiguide.cc为您提供最新的AI新闻资讯和最新的AI工具推荐,在这里你可以获得用于营销的AI聊天机器人、AI在商业管理中的应用、用于数据分析的AI工具、机器学习模型、面向企业的AI解决方案、AI在商业客户服务中的应用、AI和自动化工具等。

SQL+向量驱动大模型和大数据新范式,MyScale AI数据库正式开源

MyScale AI 数据库(MyScaleDB)基于高性能的 SQL 列式存储数据库打造,自研高性能和高数据密度的向量索引算法,并针对 SQL 和向量的联合查询对检索和存储引擎进行了深度的研发和优化,是全球第一个综合性能和性价比大幅超越了专用向量数据库的 SQL 向量数据库产品。得益于 SQL 数据库在海量结构化数据场景长期的打磨,MyScaleDB 同时支持海量向量和结构化数据,包括字符串、JSON、空间、时序等多种数据类型的高效存储和查询,并将在近期推出功能强大的倒排表和关键字检索功能,进一步提高 RAG 系统的精度并替代 Elasticsearch 等系统。经过近 6 年的开发和数次版本迭代,MyScaleDB 已于近期开源,欢迎所有开发者和企业用户在 GitHub 上 Star,并开启使用 SQL 构建生产级 AI 应用的新玩法!来源:微信公众号【机器之心】

若通过验证可颠覆美国后量子密码设计,清华陈一镭预印论文破解格密码

近日,清华大学交叉信息研究院助理教授陈一镭在 eprint 上发布的一篇论文,给出了破解格密码的量子算法,引发了全球计算机领域的震撼。这篇论文展示了一种多项式时间量子算法,用于求解具有特定多项式模数 – 噪声比的有误学习问题(LWE)。结合 Regev [J.ACM 2009] 所展示的从格问题到 LWE 的还原,论文得到了多项式时间量子算法,用于求解所有 n 维网格的决定性最短向量问题(GapSVP)和最短独立向量问题(SIVP),其近似因子为图片。在此之前,还没有任何多项式甚至亚指数时间的量子算法可以在任何多项式近似因子内求解所有格的 GapSVP 或 SIVP。来源:微信公众号【机器之心】

Meta宣布全新训推一体加速器:完全集成PyTorch 2,性能3倍提升

在英特尔宣布其最新人工智能加速器硬件的第二天,Meta 便迅速公布了关于芯片研发的最新成果:下一代 MTIA(Meta Training and Inference Accelerator),其中 MTIA 是专为 Meta AI 工作负载而设计的定制芯片系列。分析认为,Meta 此举意在减少对英伟达及其他外部公司芯片的依赖。MTIA v2 目前已在其 16 个数据中心投入使用,与 MTIA v1 相比,整体性能提高了 3 倍。不过最早的 MTIA v1 预计要到 2025 年才会发布,MTIA v2 只能再等等了,但 Meta 表示这两款 MTIA 芯片现已投入生产。新的 MTIA 芯片从根本上专注于提供计算、内存带宽和内存容量的适当平衡。该芯片将拥有 256MB 片上内存,频率为 1.3GHz,而 v1 的片上内存为 128MB 和 800GHz。有消息称,Meta 致力于 MTIA v2 研究已有一段时间了,该项目内部代号为 Artemis。 来源:微信公众号【机器之心】

图灵奖揭晓!史上首位数学和计算机最高奖“双料王”出现了

“计算机界最高荣誉”图灵奖揭晓——复杂性理论先驱、普林斯顿高等研究院教授艾维·维格森(Avi Wigderson)摘得。维格森从图灵测试出发,叙述了“模仿学习”理论的沿革及其在密码学、随机性、离散数学、数论等领域的现代应用。他基于凯撒密码、恩尼格玛密码机、选举等案例,引导思考安全性的定义、随机性的应用、隐私和效用的平衡等问题。对于理论计算机研究将如何应对人工智能发展这一问题,维格森表示,尽管包括大语言模型在内的人工智能有很多惊人表现,但最重要的问题是还有什么是AI不能做的。对于给现在正置身于科研的同学们,维格森也给出了自己的建议。他表示,自己曾为解决一个开放性问题用了40年时间,建议同学们要选择自己喜欢的研究领域和话题,并享受在失败中不断学习的过程,这样才能在科研道路上走得长远。来源:微信公众号【量子位】

大模型做时序预测也很强!华人团队激活LLM新能力,超越一众传统模型实现SOTA

Time-LLM首先使用文本原型(Text Prototypes)对输入的时序数据进行重编程,通过使用自然语言表征来表示时序数据的语义信息,进而对齐两种不同的数据模态,使大语言模型无需任何修改即可理解另一个数据模态背后的信息。为了进一步增强LLM对输入时序数据和对应任务的理解,作者提出了提示做前缀(Prompt-as-Prefix,PaP)的范式,通过在时序数据表征前添加额外的上下文提示与任务指令,充分激活LLM在时序任务上的处理能力。主要贡献包括:1、提出了通过重编程大型语言模型用于时序分析的全新概念,无需对主干语言模型做任何修改。2、提出一个通用语言模型重编程框架Time-LLM,它包括将输入时序数据重新编程为更自然的文本原型表示,并通过声明性提示(例如领域专家知识和任务说明)来增强输入上下文,以指导LLM进行有效的跨域推理。来源:微信公众号【量子位】

© 版权声明

相关文章

暂无评论

暂无评论...