
紧急:监督机构警告,教育部解雇员工浪费了2800万美元!
紧急:监督机构警告,教育部解雇员工浪费了2800万美元!
一份政府监督机构的报告显示,教育部在一次解雇员工(特别是民权律师)的失败尝试中浪费了2800万美元,凸显了潜在的管理不善和资源错配问题。 这一事件引发了人们对教育部在民权执法和有效利用纳税人资金方面的承诺的担忧,尤其是考虑到这些律师最终被留用并获得了报酬,却没有工作。 这种情况突显了政府机构监督和问责制的重要性,尤其是在影响弱势群体的领域。



企业正努力应对 RAG 系统在处理复杂文档方面的局限性
据 VentureBeat 报道,企业越来越多地采用检索增强生成 (RAG) 系统,以利用大型语言模型 (LLM) 处理其内部数据,但许多企业发现这些系统在处理复杂文档时存在困难。问题主要在于预处理阶段,标准 RAG 流程通常将文档视为扁平的文本字符串,从而导致关键信息的丢失。
RAG 系统的目标是将 LLM 建立在专有数据的基础上,使企业能够自动化工作流程、支持决策制定并实现半自主运行。然而,据 VentureBeat 报道,依赖于“固定大小分块”(即将文档切割成任意片段)在处理技术手册和其他复杂文档时可能是有害的。这种方法会将标题与图像分离、将表格切成两半,并忽略页面的视觉层次结构。
据 VentureBeat 报道,失败的原因不在于 LLM 本身,而在于文档为分析所做的准备方式。Dippu Kumar Singh 在 VentureBeat 上写道,索引 PDF 并立即普及企业知识的承诺对于依赖重型工程的行业来说一直令人失望。工程师在询问有关基础设施的特定问题时,发现机器人会产生幻觉答案。
Varun Raj 在 VentureBeat 上写道,一旦部署 AI 系统,检索失败会直接转化为业务风险。Raj 补充说,过时的上下文、不受控制的访问路径以及评估不佳的检索流程可能会损害信任、合规性和运营可靠性。他将检索重新定义为基础设施,而不是应用程序逻辑。
当前 RAG 系统的局限性凸显了对更复杂的预处理技术的需求,这些技术可以保留复杂文档的结构和上下文。提高 RAG 可靠性不是调整 LLM,而是确保系统理解其正在处理的文档。
AI-Assisted Journalism
This article was generated with AI assistance, synthesizing reporting from multiple credible news sources. Our editorial team reviews AI-generated content for accuracy.
Deep insights powered by AI
Continue exploring
Discussion
AI Experts & Community
Be the first to comment