月度归档: 2024 年 6 月

  • Sparsity-Accelerated Training for Large Language Models

    问题背景

    大型语言模型(LLMs)在自然语言处理(NLP)任务中表现出色,但是训练这些模型所需的时间和计算资源成本较高。为了提高模型性能和遵循人类指令的能力,这些模型通常需要进行额外的训练,如持续预训练和监督式微调。然而,由于模型参数众多,这些额外训练过程的成本非常高昂。

    提出的解决方案:稀疏加速训练(Sparsity-Accelerated Training, SAT)

    为了解决大型语言模型训练成本高昂的问题,研究人员提出了一种名为”Sparsity-Accelerated Training”(SAT)的框架。SAT的核心思想是利用预训练LLMs中的结构稀疏性来加速额外的训练过程。通过观察前向迭代中激活的神经元的稀疏性,SAT框架可以确定哪些神经元是不活跃的,从而排除这些不活跃的神经元,减少计算量,加快训练速度。

    实现方法:神经元重要性评估和选择

    为了实现SAT框架,研究人员首先需要评估每个神经元的重要性,并选择重要的神经元进行训练。评估神经元重要性的方法是观察前向迭代中激活的神经元的稀疏性,并计算每个神经元的重要性得分。通过选择重要性得分高的神经元,并在训练过程中仅更新这些神经元,可以减少计算量,加快训练速度。

    SAT框架在Transformer架构中的应用

    SAT框架主要针对基于Transformer架构的LLMs进行研究。在Transformer架构中,SAT框架可以应用于多头注意力(MHA)和多层感知机(MLP)模块。对于MHA,SAT框架选择重要性得分高的头部进行优化;对于MLP,SAT框架选择重要性得分高的通道进行优化。通过稀疏化这些组件中的神经元,SAT框架可以减少计算量,加快训练速度。

    梯度遗漏率调度器(LORS)的应用

    为了缓解剪枝神经元可能导致的过拟合问题,研究人员在SAT框架中引入了梯度遗漏率调度器(Ladder Omission Rate Scheduler, LORS)。LORS将训练过程分为两个阶段:第一阶段使用恒定的遗漏率进行稀疏训练,第二阶段逐渐降低遗漏率,使模型逐渐变得更密集,直到完全恢复为密集模型。LORS的引入可以提高训练的稳定性和鲁棒性。

    实验验证和结果

    研究人员在Llama-2模型上进行了实验,验证了SAT框架在持续预训练和监督式微调方面的性能。实验结果表明,SAT在这些任务中取得了与标准训练相媲美甚至更好的性能,同时显著加快了训练速度。此外,研究人员还对SAT框架的效率进行了分析,包括吞吐量、训练时间、内存消耗和浮点运算(FLOPs)等指标。实验结果显示,SAT框架能够在减少计算量的同时保持高效。

    相关研究和未来展望

    在加速大型语言模型训练的领域,已经有一些相关研究工作,如变换器剪枝、稀疏微调和参数高效微调等。这些研究为SAT框架的提出提供了理论和技术基础。然而,仍然有一些潜在的探索方向可以进一步研究,例如探索更大规模和多样化的模型结构、更多的神经元重要性度量方法、计算资源和环境影响等。此外,还可以考虑与其他模型优化技术的结合、深入分析稀疏性对模型性能的影响以及实际部署和应用等方面的研究。

    结论

    Sparsity-Accelerated Training(SAT)框架提出了一种利用预训练LLMs中的结构稀疏性来加速大型语言模型训练的方法。通过评估神经元重要性并选择重要的神经元进行训练,SAT框架能够减少计算量、加快训练速度,并在保持或提高模型性能的同时提高训练效率。SAT框架为大型语言模型的训练提供了一种简单、硬件无关且易于部署的解决方案。

    参考文献:

    • Da Ma, Lu Chen, Pengyu Wang, Hongshen Xu, Hanqi Li, Liangtai Sun, Su Zhu, Shuai Fan, Kai Yu. “Sparsity-Accelerated Training for Large Language Models.” 2024.
  • 大型语言模型与人类大脑:相似性评估的误区

    近年来,大型语言模型(LLMs)在自然语言处理领域取得了突破性的进展。然而,人们开始质疑这些模型是否真的像人类大脑一样处理语言。为了评估这种相似性,研究者们通常使用“大脑得分”(brain scores)来衡量模型预测神经信号的能力。但是,这种方法真的有效吗?

    误区一:大脑得分的局限性

    研究者们发现,当前使用的随机训练-测试分割方法可能会夸大模型的预测能力。例如,在一个 fMRI 数据集上,一个简单的特征(编码时间自相关性)不仅超过了 LLMs 的表现,还解释了 LLMs 解释的大部分神经方差(Feghhi et al., 2024)。这意味着,当前的评估方法可能会忽视模型预测能力的局限性。

    误区二:未训练模型的高大脑得分

    研究者们还发现,未训练的 LLMs 也可以获得高的大脑得分。但是,这并不是因为它们捕捉到了额外的神经方差,而是因为它们简单地编码了句子长度和句子位置这两个特征(Feghhi et al., 2024)。这表明,未训练模型的高大脑得分可能是由于简单特征的影响,而不是因为它们真的像人类大脑一样处理语言。

    误区三:训练模型的 brain scores

    对于训练后的 LLMs,大部分大脑得分可以由句子长度、位置和静态词嵌入解释,而词义消歧和句法表示只解释了一小部分神经方差(Feghhi et al., 2024)。这意味着,训练模型的 brain scores 可能主要是由于简单特征的影响,而不是因为它们真的捕捉到了语言处理的核心方面。

    结论

    综上所述,当前评估大型语言模型与人类大脑相似性的方法可能存在误区。我们需要更好地理解 LLMs 是如何映射到神经信号的,并开发更加准确的评估方法。只有这样,我们才能真正地评估 LLMs 与人类大脑的相似性。

    参考文献

    Feghhi, E., Hadidi, N., Song, B., Blank, I. A., & Kao, J. C. (2024). What Are Large Language Models Mapping to in the Brain? A Case Against Over-Reliance on Brain Scores.

  • 【Excel】把金额的阿拉伯数字转换成中文大写

    在Excel中,你可以使用以下方法将金额的阿拉伯数字转换成中文大写:

    方法一:使用内置格式

    1. 将阿拉伯数字输入到一个单元格中。
    2. 选中该单元格,右键点击并选择”设置单元格格式”,或者使用快捷键CTRL+1来打开”设置单元格格式”对话框。
    3. 在”设置单元格格式”对话框中,选择”数字”选项卡。
    4. 在”分类”列表中选择”中文大写数字”。
    5. 确认并关闭对话框,你会发现该单元格中的阿拉伯数字已经被转换成了中文大写数字[2]

    方法二:使用公式

    1. 在一个单元格中输入以下公式:
       =IF(MOD(A1,1)=0,TEXT(INT(A1),"[DBNUM2]")&"元整",TEXT(INT(A1),"[DBNUM2]")&"元"&TEXT(MID(A1,LEN(INT(A1))+2,1),"[DBNUM2]D角")&TEXT(MID(A1,LEN(INT(A1))+3,1),"[DBNUM2]D分"))

    其中,A1是包含阿拉伯数字的单元格,你可以根据实际情况进行调整。

    1. 按下Enter键,该单元格将显示转换后的中文大写金额[2]

    方法三:使用VBA宏
    如果你需要在多个单元格中进行批量转换,你可以使用VBA宏来实现。以下是一个示例的VBA代码:

    Sub ConvertToChinese()
        Dim rng As Range
        Dim cell As Range
    
        Set rng = Selection ' 选择要转换的单元格范围
    
        For Each cell In rng
            cell.Value = Application.WorksheetFunction.Text(cell.Value, "[DBNUM2]")
        Next cell
    End Sub
    1. 打开Excel,按下ALT+F11打开VBA编辑器。
    2. 在VBA编辑器中,插入一个新的模块。
    3. 将上述VBA代码复制粘贴到新的模块中。
    4. 关闭VBA编辑器。
    5. 选中要转换的单元格范围。
    6. 按下ALT+F8打开宏对话框。
    7. 选择”ConvertToChinese”宏,并点击”运行”按钮。
    8. 选中的单元格将被转换成中文大写金额[2]

    请注意,以上方法适用于Excel的大多数版本。如果你使用的是其他版本或者有特定的需求,请参考相关文档或搜索更多资源。

    参考文献:
    [1] Excel表格中数字转中文大写怎么做?这里总有需要的那一种方法 – 腾讯云开发者社区-腾讯云
    [2] 百度知道 – 信息提示


    Learn more:

    1. 百度知道 – 信息提示
    2. Excel表格中数字转中文大写怎么做?这里总有需要的那一种方法 – 腾讯云开发者社区-腾讯云
    3. 百度知道 – 信息提示
  • GLM-4 开源:国产大模型的新突破

    近年来,以 ChatGPT 为代表的大型语言模型(LLM)在全球掀起了人工智能的热潮。国内的科技公司和研究机构也积极投入到这场技术革命中,推出了众多优秀的 LLM 产品。近日,智谱 AI 推出的最新一代预训练模型 GLM-4 系列中的开源版本——GLM-4-9B,就以其强大的性能和丰富的功能,成为了国产大模型的又一突破。

    全面升级,性能超越 Llama-3-8B

    GLM-4-9B 不仅仅是模型参数规模的提升,更是在模型架构和训练数据上进行了全面升级。在语义理解、数学推理、代码执行等多个领域,GLM-4-9B 都展现出了超越 Llama-3-8B 的卓越性能,标志着国产大模型在技术上达到了新的高度。

    功能丰富,应用场景广泛

    GLM-4-9B 不仅性能强大,功能也十分丰富,可以支持多种应用场景:

    • 多轮对话: GLM-4-9B-Chat 支持流畅的多轮对话体验,可以像人类一样进行自然语言交互。
    • 网页浏览: 能够解析和理解网页内容,提取关键信息,为用户提供更智能的搜索和信息获取服务。
    • 代码执行: 具备实际的编程语言执行能力,可以辅助程序员编写和调试代码,提高开发效率。
    • 自定义工具调用: 可以调用自定义的函数和工具,扩展模型的功能,满足特定领域的需求。
    • 长文本推理: 支持最大 128K 的上下文,GLM-4-9B-Chat-1M 模型更是支持高达 1M 的上下文长度,可以处理更复杂的任务。

    多语言支持,打破沟通壁垒

    GLM-4-9B 增加了对 26 种语言的支持,包括日语、韩语、德语等,让 AI 的语言能力不再受限,为跨语言交流和文化传播提供了新的可能性。

    多模态融合,开启智能新时代

    GLM-4V-9B 是基于 GLM-4-9B 的多模态模型,具备 1120 * 1120 高分辨率下的中英双语多轮对话能力,在多模态评测中表现超越了多个竞争对手。这意味着 GLM-4 不仅可以理解和生成文本,还可以处理图像、视频等多模态信息,为构建更智能、更人性化的 AI 应用奠定了基础。

    开源开放,共建 AI 生态

    智谱 AI 将 GLM-4-9B 开源,这一举措体现了其开放合作的态度,也为 AI 社区带来了新的活力和创新动力。相信在开源社区的共同努力下,GLM-4 将会得到更广泛的应用,为各行各业带来更多价值。

    体验 GLM-4,拥抱 AI 未来

    想要体验 GLM-4-9B 的强大能力吗?您可以通过 Huggingface 和 ModelScope 下载模型,快速开始您的 AI 探索之旅。

    让我们一起期待 GLM-4 在未来的发展,共同见证国产大模型的崛起!


  • 当大型语言模型遭遇信息污染:像压缩文件一样去除知识噪声

    近年来,大型语言模型(LLM)在人工智能领域掀起了一场革命。从写诗作赋到生成代码,LLM 似乎无所不能。然而,即使是最先进的 LLM 也面临着一个棘手的问题:信息污染。

    知识的海洋也暗藏“暗礁”

    想象一下,你正在使用一个智能搜索引擎寻找答案。你输入问题,引擎从海量数据中检索信息,并将结果呈现给你。但问题是,这些信息并非总是准确可靠的。就像知识的海洋中也暗藏“暗礁”一样,LLM 经常会遇到以下问题:

    • 幻觉: LLM 有时会生成看似合理但实际错误或无意义的内容,就像凭空捏造信息一样。
    • 知识缺失: LLM 的知识来源于训练数据,对于特定领域或专业知识可能存在盲区。

    为了解决这些问题,研究人员开发了检索增强生成技术。这项技术就像为 LLM 配备了一个外部知识库,使其能够在生成文本时参考更广泛的信息。然而,新的挑战也随之而来:如何确保检索到的信息是准确且相关的?

    信息瓶颈:为知识“瘦身”

    为了应对信息污染的挑战,《An Information Bottleneck Perspective for Effective Noise Filtering on Retrieval-Augmented Generation》这篇论文提出了一种新颖的解决方案:信息瓶颈(IB)。

    那么,什么是信息瓶颈呢?

    简单来说,信息瓶颈就像压缩文件一样,目标是从海量信息中提取最精华的部分,同时去除冗余和噪声。

    “信息瓶颈理论将学习描述为数据压缩和信息保留之间微妙的平衡。当应用于特定任务时,其理念是提取对任务至关重要的所有信息特征,同时丢弃冗余信息。”

    具体到 LLM 中,信息瓶颈是如何工作的呢?

    想象一下,你正在准备一场演讲。你从书籍、网络和其他资料中收集了大量信息,但并非所有内容都对你的演讲至关重要。你需要筛选出最关键的信息,并将其组织成简洁易懂的内容。

    信息瓶颈的作用就像一位经验丰富的编辑,它可以帮助 LLM 完成以下工作:

    1. 识别关键信息: 通过分析输入的查询和检索到的信息,信息瓶颈可以识别出与生成文本最相关的部分。
    2. 压缩信息: 信息瓶颈会对关键信息进行压缩,去除冗余和噪声,使其更加简洁易懂。
    3. 提高生成质量: 通过提供更准确、更相关的知识,信息瓶颈可以帮助 LLM 生成更优质的文本,减少幻觉和错误。

    信息瓶颈:不仅仅是“瘦身”

    除了压缩信息,信息瓶颈还为评估和改进 LLM 的性能提供了新的思路:

    • 更全面的评估指标: 传统的评估指标通常只关注生成文本的流畅度和语法正确性,而信息瓶颈提供了一种更全面的评估方法,可以同时评估文本的简洁性和准确性。
    • 更有效的训练方法: 信息瓶颈可以用于指导 LLM 的训练过程,例如,通过强化学习算法,鼓励 LLM 生成更简洁、更准确的文本。

    结语

    信息瓶颈为解决 LLM 中的信息污染问题提供了一种全新的思路。随着技术的不断发展,我们有理由相信,信息瓶颈将在提升 LLM 性能方面发挥越来越重要的作用,为我们带来更智能、更可靠的 AI 应用。

    参考文献

    • Zhu, K., Feng, X., Du, X., Gu, Y., Yu, W., Wang, H., … & Qin, B. (2024). An Information Bottleneck Perspective for Effective Noise Filtering on Retrieval-Augmented Generation. arXiv preprint arXiv:2406.01549v1.
  • Analysis of “An Information Bottleneck Perspective for Effective Noise Filtering on Retrieval-Augmented Generation”

    This paper tackles the problem of noise in retrieval-augmented generation, a crucial area in improving the performance of large language models (LLMs). Here’s a breakdown of the paper:

    Problem:

    • LLMs often struggle with hallucinations and lack domain-specific knowledge.
    • Retrieval-augmented generation aims to address this by incorporating external knowledge.
    • However, retrieved information can be noisy or irrelevant, hindering LLM performance.

    Proposed Solution:

    • The paper introduces an information bottleneck (IB) approach to filter noise in retrieved passages.
    • This method maximizes the relevant information retained in compressed passages while minimizing irrelevant content.

    Key Contributions:

    1. Novel Application of IB: This is the first work to apply information bottleneck theory to noise filtering in retrieval-augmented generation.
    2. Comprehensive IB Integration: The paper utilizes the IB principle for:
      • Evaluation: Proposing a new metric to assess the conciseness and correctness of compressed passages.
      • Training: Deriving IB-based objectives for both supervised fine-tuning and reinforcement learning of the noise filter.
    3. Empirical Effectiveness: Experiments on various question-answering datasets demonstrate:
      • Significant improvement in answer correctness.
      • Remarkable conciseness with a 2.5% compression rate without sacrificing performance.

    How it Works:

    1. Information Bottleneck Objective: The core idea is to find a compressed representation (X~) of the retrieved passages (X) that retains maximum information about the desired output (Y) while minimizing information about the irrelevant parts of X. This is achieved by minimizing the following objective:
       min L_IB = I(X~, X | Q) - β * I(X~; Y | Q)
    • I(X~, X | Q): Measures the conciseness of the compression. Lower values indicate more concise representations.
    • I(X~; Y | Q): Measures the relevance of the compressed information to the output. Higher values indicate more relevant information.
    • β: A hyperparameter balancing the trade-off between conciseness and relevance.
    • Q: Represents the input query.
    1. Noise Filter Training: The paper explores two training paradigms for the noise filter:
      • Supervised Fine-tuning: Utilizes labeled data to optimize the filter’s parameters directly.
      • Reinforcement Learning: Employs a reward function based on the IB objective to guide the filter’s learning process.

    Strengths:

    • Principled Approach: The IB framework provides a theoretically sound foundation for noise filtering.
    • Comprehensive Evaluation: The proposed IB-based metric offers a holistic assessment of compressed passages.
    • Improved Performance: Experiments show significant gains in both answer accuracy and conciseness.

    Potential Limitations:

    • Computational Cost: IB-based methods can be computationally expensive, especially for large datasets.
    • Hyperparameter Sensitivity: The performance of the approach might be sensitive to the choice of the β hyperparameter.

    Overall, the paper presents a novel and effective approach to address the noise issue in retrieval-augmented generation. The proposed IB-based framework shows promising results and opens up new avenues for future research in this area.

  • MMLU-Pro:更强大、更具挑战性的多任务语言理解基准

    引言:人工智能理解能力的新标杆

    近年来,大型语言模型(LLM)的进步彻底改变了自然语言处理(NLP)领域。GPT-4、Gemini 和 Claude 等最先进的模型正在不断突破人工智能在语言理解和推理方面的能力边界。为了实现专家级人工智能的目标,即在各种任务中达到或超过 10% 的技能娴熟的成年人的表现,我们需要不断评估这些模型在广泛任务上的表现。

    目前,有多种流行的基准测试用于衡量这种通用智能,例如侧重于考试题的 AGIEval、侧重于科学问题的 ARC、侧重于解决困难的合成任务的 BBH 以及涵盖 STEM、人文、社会科学等 57 个科目的考试题的 MMLU。

    MMLU 的局限性:从饱和到不稳定

    MMLU 因其广泛的覆盖面和高质量而成为评估 LLM 的事实标准。然而,当前 LLM 的快速发展已迅速导致 MMLU 的性能饱和。自 2023 年 3 月 GPT-4 达到 86.4% 的准确率以来,该基准测试一直没有取得任何重大进展。大多数最新的前沿模型,如 GPT-4-Turbo、Gemini-1.5-Pro、Claude 和 LLaMA-3-400B,其准确率都稳定在 86% 到 87% 之间。最近发布的 GPT-4o 在 MATH 和 Chatbot Arena 上取得了显著的性能提升(10% 以上),但在 MMLU 上仅获得了 1% 的提升,达到 87.4%。

    除了饱和问题外,MMLU 的性能还因其对提示和评分函数的高度敏感而闻名,这导致排行榜上的排名发生重大变化。我们推测,这些问题是由以下原因造成的:

    • 选项数量少:MMLU 中的问题只有三个干扰选项,这使得 LLM 可以在没有真正理解问题的情况下利用捷径得出答案,从而导致对 LLM 真实性能的高估和一定程度的不稳定性。
    • 推理难度低:MMLU 中的问题大多是知识驱动的,不需要太多的推理,尤其是在 STEM 科目中,这降低了其难度。事实上,大多数模型在没有思维链的情况下,通过“直接”答案预测就能获得更好的性能。
    • 数据噪声:MMLU 中有一部分问题是无法回答的,或者标注有误,这导致了性能上限较低,而前沿模型已经达到了这个上限。

    MMLU-Pro:更具挑战性、更具辨别力、更可靠

    为了解决这些问题,我们引入了 MMLU-Pro:一个全面的基准测试,旨在评估高级语言模型在多学科语言理解和推理方面的能力。MMLU-Pro 涵盖了 14 个不同的领域,包括数学、物理、化学、法律、工程、心理学和健康,包含超过 12,000 个问题。

    MMLU-Pro 与 MMLU 的区别在于:

    • 选项数量增加:MMLU-Pro 有十个选项,比 MMLU 多 3 倍,这大大降低了随机猜对答案的概率,从而提高了基准测试的难度和鲁棒性。
    • 推理难度提高:MMLU-Pro 增加了具有挑战性的大学水平考试题的比例,这些问题要求 LLM 在不同领域进行深思熟虑的推理才能得出最终答案。
    • 数据质量更高:我们整合了两轮专家评审,以减少数据集的噪声。第一轮是基于专家验证,第二轮是利用最先进的 LLM 来识别潜在的错误,并聘请标注员进行更有针对性的验证。

    实验结果:CoT 的必要性和 MMLU-Pro 的有效性

    我们在 MMLU-Pro 上评估了 50 多个 LLM,包括开源和闭源模型,如 GPT-4o、Claude-3-Opus、Gemini、LLaMA-3 和 Phi-3。我们的主要发现总结如下:

    • MMLU-Pro 极具挑战性:领先的模型 GPT-4o 仅获得了 72.6% 的准确率,GPT-4-Turbo 达到 63.7%,这表明还有很大的改进空间。
    • MMLU-Pro 更具辨别力:例如,GPT-4o 和 GPT-4-Turbo 在 MMLU 上的差距为 1%,而在 MMLU-Pro 上则为 9%。这种辨别性使得 MMLU-Pro 成为一个更合适的基准测试。
    • 开源模型的进步:Llama-3-70B-Instruct 和 DeepSeek-V2-Chat 等先进的开源模型,虽然在性能上还无法与 GPT-4o 和 Claude-3-Opus 等领先的闭源模型相媲美,但已经接近 Claude-3-Sonnet 的水平。
    • CoT 的必要性:MMLU-Pro 需要思维链(CoT)才能取得良好的效果。例如,CoT 可以将 GPT-4o 的性能提高 19%。相比之下,CoT 实际上会损害模型在 MMLU 上的表现。这反映了在 MMLU-Pro 上进行深思熟虑的推理的必要性,而这在知识驱动的 MMLU 问题中是不需要的。
    • 错误分析:我们对当前性能最佳的模型 GPT-4o 的 120 个错误案例进行了分析,发现 39% 的错误是由于推理过程中的缺陷,35% 是由于缺乏特定领域的专业知识,另外 12% 是由于计算错误。这些结果突出了 MMLU-Pro 基准测试的难度,并指出了需要进一步研究和模型改进的领域。

    结论:迈向更强大的 LLM 评估

    MMLU-Pro 是一个更强大、更具挑战性的多任务语言理解基准测试,它解决了 MMLU 的局限性,并为评估 LLM 的推理和知识能力设定了更高的标准。我们的实验结果表明,MMLU-Pro 在区分模型、鼓励 CoT 推理和推动 LLM 研究方面非常有效。


  • 阅读分析报告:An Information Bottleneck Perspective for Effective Noise Filtering on Retrieval-Augmented Generation

    摘要:
    《An Information Bottleneck Perspective for Effective Noise Filtering on Retrieval-Augmented Generation》这篇论文提出了一种信息瓶颈的视角,用于改善检索增强生成中的噪声过滤效果。检索增强生成将大型语言模型的能力与从广泛语料库中检索到的相关信息相结合,但在面对真实世界的嘈杂数据时会遇到挑战。最近的解决方案是训练一个过滤模块来找到相关内容,但只能实现次优的噪声压缩。本文提出将信息瓶颈理论引入检索增强生成中。我们的方法涉及通过同时最大化压缩和基准输出之间的互信息,同时最小化压缩和检索段落之间的互信息来过滤噪声。此外,我们推导出信息瓶颈的公式,以便在新的综合评估、监督微调数据的选择和强化学习奖励的构建中应用。实验结果表明,我们的方法在各种问答数据集上取得了显著的改进,不仅在答案生成的正确性方面,而且在压缩率的简洁性方面也有所提高。

    • 引言
    • 大型语言模型在自然语言理解和生成方面取得了重大进展,但仍存在一些缺点。
    • 检索增强生成是一种将外部知识源的信息整合到推理阶段的方法,可以提高文本生成的相关性、连贯性和事实准确性。
    • 相关工作
    • 信息瓶颈理论:信息瓶颈理论是一种在面对任务时使用最少信息来完成任务的理论。
    • 噪声过滤:噪声过滤是为了减轻检索证据中的噪声问题而采取的后处理技术。
    • 方法
    • 信息瓶颈原理:信息瓶颈原理通过最大化有用信息的同时最小化噪声来实现数据压缩。
    • 噪声过滤:通过最大化压缩和基准输出之间的互信息,同时最小化压缩和检索段落之间的互信息来过滤噪声。
    • 实验结果
    • 在开放领域的问答数据集上进行实验,包括自然问题(Natural Questions)、TriviaQA和HotpotQA。
    • 与强基线模型(RankGPT、LongLLMLingua和Lllama2)相比,我们的方法在所有三个数据集上都取得了显著的改进。
    • 创新点
    • 首次将信息瓶颈理论引入检索增强生成,展示了过滤的最佳效果。
    • 在评估指标、监督微调目标和强化学习奖励中应用了信息瓶颈。
    • 实验证明了我们方法在生成正确性和压缩简洁性方面的有效性。

    参考文献:
    [1] Zhu, K., Feng, X., Du, X., Gu, Y., Yu, W., Wang, H., … & Qin, B. (2024). An Information Bottleneck Perspective for Effective Noise Filtering on Retrieval-Augmented Generation.
    [2] “An Information Bottleneck Perspective for Effective Noise Filtering on Retrieval-Augmented Generation | OpenReview” (2024). OpenReview. Retrieved from [link]


    Learn more:

    1. An Information Bottleneck Perspective for Effective Noise Filtering on Retrieval-Augmented Generation
    2. An Information Bottleneck Perspective for Effective Noise Filtering on Retrieval-Augmented Generation | OpenReview
    3. BlendFilter: Advancing Retrieval-Augmented Large Language Models via Query Generation Blending and Knowledge Filtering

    Retrieval-augmented generation integrates the capabilities of large language models with relevant information retrieved from an extensive corpus, yet encounters challenges when confronted with real-world noisy data. One recent solution is to train a filter module to find relevant content but only achieve suboptimal noise compression. In this paper, we propose to introduce the information bottleneck theory into retrieval-augmented generation. Our approach involves the filtration of noise by simultaneously maximizing the mutual information between compression and ground output, while minimizing the mutual information between compression and retrieved passage. In addition, we derive the formula of information bottleneck to facilitate its application in novel comprehensive evaluations, the selection of supervised fine-tuning data, and the construction of reinforcement learning rewards. Experimental results demonstrate that our approach achieves significant improvements across various question answering datasets, not only in terms of the correctness of answer generation but also in the conciseness with $2.5\%$ compression rate.

    SubjectsComputation and Language ; Artificial Intelligence

    Publish: 2024-06-03 17:31:06 UTC


    Q: 这篇论文试图解决什么问题?

    A: 这篇论文试图解决的问题是如何在检索增强型生成(Retrieval-Augmented Generation, RAG)中有效地过滤噪声数据。检索增强型生成是一种结合大型语言模型和从大量语料库中检索到的相关信息的技术,但面对现实世界中的噪声数据时会遇到挑战。论文指出,现有的解决方案,如训练一个过滤模块来寻找相关内容,只能实现次优的噪声压缩。为了解决这个问题,论文提出了将信息瓶颈理论(Information Bottleneck, IB)引入到检索增强型生成中,通过同时最大化压缩与目标输出之间的互信息,以及最小化压缩与检索到的段落之间的互信息,来过滤噪声。此外,论文还推导出信息瓶颈的公式,以便于在新的综合评估中应用,选择监督式微调数据,并构建强化学习奖励。实验结果表明,这种方法在多个问答数据集上取得了显著改进,不仅提高了答案生成的正确性,还提高了压缩率,达到了2.5%的压缩率。

    Q: 有哪些相关研究?

    A: 相关研究主要集中在信息瓶颈理论和噪声过滤在检索增强型生成中的应用。以下是一些具体的相关研究领域和工作:

    1. 信息瓶颈理论 (Information Bottleneck, IB):
      • Tishby et al., 1999; Fischer, 2020 提出了信息瓶颈理论,强调在面对任务时应该使用最少量的信息来完成。
      • Shwartz-Ziv 和 LeCun, 2023 讨论了信息瓶颈理论在特定任务中的应用,如表示学习、深度学习、文档聚类、语音识别和文本摘要等。
    2. 噪声过滤 (Noise Filtering):
      • Jiang et al., 2023c; Asai et al., 2023 提出了训练模型以具备主动检索和过滤检索内容的能力。
      • Shi et al., 2023b 通过改善检索器来减少噪声。
      • Bai et al., 2023 专注于重新排列检索到的文章以过滤噪声。
      • Li, 2023 和 Jiang et al., 2023a 使用小型语言模型来衡量提示的互信息或困惑度,以找到最高分元素。
      • Xu et al., 2023; Wang et al., 2023 采用总结技术设计压缩器。
    3. 检索增强型生成 (Retrieval-Augmented Generation):
      • Lewis et al., 2020 提出了检索增强型生成的概念,通过结合检索方法和生成模型来提高文本生成的相关性、连贯性和事实准确性。
      • Gao et al., 2023 提供了检索增强型生成在大型语言模型中的应用概述。
    4. 评估指标、监督式微调和强化学习:
      • 论文还提出了将信息瓶颈理论应用于评估指标、监督式微调目标和强化学习奖励的方法,以提高检索增强型生成的性能。

    这些相关研究为论文提出的解决方案提供了理论基础和实践方法。通过综合这些研究成果,论文提出了一种新的噪声过滤方法,旨在提高检索增强型生成在处理噪声数据时的有效性。

    Q: 论文如何解决这个问题?

    A: 论文通过引入信息瓶颈理论(Information Bottleneck, IB)来解决检索增强型生成(Retrieval-Augmented Generation, RAG)中的噪声过滤问题。具体的解决方法包括以下几个步骤:

    1. 信息瓶颈理论的应用
      • 利用信息瓶颈理论优化噪声过滤器,通过同时最大化压缩表示与目标输出之间的互信息,以及最小化压缩表示与检索到的段落之间的互信息。
    2. 推导信息瓶颈公式
      • 论文为检索增强型生成推导了信息瓶颈的具体公式,这有助于在新的综合评估中应用,选择监督式微调数据,并构建强化学习奖励。
    3. 评估指标
      • 提出信息瓶颈作为评估噪声过滤性能的新指标,该指标综合考虑了压缩内容的简洁性和正确性。
    4. 监督式微调
      • 利用信息瓶颈理论来选择最佳的压缩输出作为训练数据,通过监督式学习来训练噪声过滤器。
    5. 强化学习
      • 采用直接偏好优化(Direct Preference Optimization, DPO)等强化学习方法,结合信息瓶颈理论来增强噪声过滤器的性能。
    6. 实验验证
      • 在开放域问答数据集(如Natural Questions, TRIVIAQA和HOTPOTQA)上进行实验,使用LLAMA2作为过滤和生成模型,与强基线模型进行比较,证明了所提方法的有效性。
    7. 压缩与性能的平衡
      • 通过信息瓶颈理论,实现了在压缩率和性能之间的最佳平衡,达到了显著的压缩率(2.5%)和提高的精确答案匹配率(最多3.2的改进)。

    通过这些方法,论文成功地展示了如何有效地过滤检索到的信息中的噪声,提高了生成答案的正确性和简洁性。

    Q: 论文做了哪些实验?

    A: 论文中进行了以下实验来验证所提方法的有效性:

    1. 开放域问答实验
      • 在Natural Questions (NQ)、TRIVIAQA和HOTPOTQA三个问答基准数据集上进行实验。
      • 使用LLAMA2作为基础架构的大型语言模型,并对其7B模型版本进行微调以进行噪声过滤。
    2. 压缩率与性能评估
      • 报告了压缩检索证据的单词数量,以反映压缩率。
      • 使用Exact Match (EM)、F1分数和信息瓶颈分数(IB)等指标来评估模型性能。
    3. 基线模型比较
      • 与不使用检索增强的LLAMA2-13B生成器以及使用top-1或top-5检索文档的情况进行比较。
      • 包括了RANKGPT和LONGLLMLINGUA等过滤方法,并与LLAMA-7B模型进行比较。
    4. 多跳问答实验
      • 在HOTPOTQA数据集上评估了过滤模型在处理多跳问题时的性能。
    5. 压缩简洁性消融研究
      • 通过消融实验展示了信息瓶颈理论中简洁性项的重要性。
    6. 信息瓶颈在过滤数据选择中的应用
      • 在NQ和HOTPOTQA的数据集上验证了信息瓶颈在选择训练数据时的有效性。
    7. 压缩长度与简洁性关系的研究
      • 通过一个玩具实验来验证压缩率和简洁性互信息之间的关系。
    8. 案例研究
      • 提供了来自三个数据集的示例,展示了在不同情况下检索内容的压缩结果。

    这些实验结果表明,论文提出的方法在多个数据集上显著提高了答案生成的正确性,并且在压缩率方面取得了2.5%的改进。此外,通过消融研究和案例研究,论文进一步展示了所提方法在不同情况下的应用效果和优势。

    Q: 有什么可以进一步探索的点?

    A: 尽管论文提出了一种有效的噪声过滤方法并取得了良好的实验结果,但仍有一些潜在的研究方向可以进一步探索:

    1. 改进的评估指标:虽然论文提出了信息瓶颈(IB)分数作为评估指标,但可以探索更多与特定任务相关的评估指标,以更全面地衡量模型性能。
    2. 更复杂的检索增强模型:研究更复杂的检索增强模型,以进一步提高生成文本的相关性、连贯性和事实准确性。
    3. 多模态数据集的应用:将所提方法应用于多模态数据集(如结合文本和图像的数据集),探索在这种环境下的噪声过滤问题。
    4. 跨领域适应性:研究模型在不同领域间的适应性,例如,将训练好的模型应用到新的领域时,如何快速适应并保持性能。
    5. 半监督或无监督的噪声过滤:探索在缺少标注数据的情况下,如何利用未标注数据或用户反馈来改进噪声过滤。
    6. 强化学习策略的优化:研究不同的强化学习策略,以更有效地训练噪声过滤器,提高检索增强型生成的性能。
    7. 噪声过滤的可解释性:提高噪声过滤过程的可解释性,帮助用户理解模型为何做出特定的过滤决策。
    8. 多语言和跨文化的应用:将模型扩展到多语言和跨文化场景,研究如何处理不同语言和文化背景下的噪声过滤问题。
    9. 实时应用和在线学习:研究如何将噪声过滤方法应用于实时系统,并探索在线学习策略以持续改进模型性能。
    10. 伦理和社会影响:深入研究文本生成技术的伦理和社会影响,确保生成的内容符合社会规范和伦理标准。
    11. 模型鲁棒性:提高模型对于各种噪声和异常情况的鲁棒性,确保在面对恶意输入或数据污染时的稳定性。
    12. 资源效率:优化模型的计算效率,减少资源消耗,使得模型可以部署在资源受限的环境中。

    这些探索点可以帮助研究者从不同角度改进和扩展论文中提出的方法,以适应更广泛的应用场景和需求。

    Q: 总结一下论文的主要内容

    A: 这篇论文的核心内容是提出了一种基于信息瓶颈理论的方法,用于改进检索增强型生成中的噪声过滤问题。以下是对论文主要内容的总结:

    1. 问题背景:检索增强型生成(RAG)在处理现实世界噪声数据时面临挑战,现有解决方案在噪声压缩方面表现不佳。
    2. 信息瓶颈理论:引入信息瓶颈理论来优化噪声过滤器,通过最大化压缩与目标输出之间的互信息,同时最小化与检索到的段落之间的互信息。
    3. 方法论
      • 提出一种新的噪声过滤目标,基于信息瓶颈理论,以实现更精确的信息提取。
      • 推导出信息瓶颈公式,用于评估噪声过滤的效果,并指导监督式微调和强化学习。
    4. 实验设置
      • 使用Natural Questions (NQ)、TRIVIAQA和HOTPOTQA等开放域问答数据集进行实验。
      • 使用LLAMA2模型作为过滤和生成模型。
    5. 实验结果
      • 所提方法在多个数据集上显著提高了答案生成的正确性,并达到了2.5%的压缩率。
      • 在Exact Match (EM)和F1分数上均优于基线模型。
    6. 主要创新点
      • 首次将信息瓶颈理论引入检索增强型生成。
      • 提出将信息瓶颈应用于评估指标、监督式微调目标和强化学习奖励。
      • 实验结果显示所提方法在生成正确性和压缩简洁性方面的有效性。
    7. 相关工作:论文回顾了信息瓶颈理论和噪声过滤的相关研究,展示了如何将这些理论应用于RAG。
    8. 方法细节
      • 对信息瓶颈原则进行了详细解释,并将其转化为噪声过滤器的形式。
      • 提供了评估指标、监督式微调和强化学习目标的具体实现细节。
    9. 局限性:论文讨论了方法的局限性,包括对生成器性能的依赖和在True-Flip-Rate (TFR)与False-Flip-Rate (FFR)之间的权衡。
    10. 伦理声明:论文强调了文本生成技术可能被滥用的风险,并声明了研究团队在设计方法时考虑了减少有害内容生成的措施。

    通过这些内容,论文展示了如何通过信息瓶颈理论来提高检索增强型生成在噪声数据处理中的性能。


  • 调整 PHP-FPM 以获得超高的服务器性能

    这篇文章提供了一个关于如何通过调整 PHP-FPM 设置来优化服务器内存使用并提高性能的逐步指南。

    步骤 1:确定 PHP-FPM 进程的内存使用情况

    • 运行以下命令以显示按 RSS(常驻集大小,即进程实际使用的物理内存量)排序的 php-fpm 进程:
       ps -ylC php-fpm7.3 --sort:rss 
    • 注意每个 php-fpm 进程使用的内存量(以 KB 或 GB 为单位)。

    步骤 2:估算其他进程的内存消耗

    • 运行 top 命令。
    • 按三次 < 键以按 RES(常驻内存大小)排序。
    • 确定 MySQL 和 Apache 等其他进程使用的内存量。

    步骤 3:为 PHP-FPM 分配内存

    • 根据服务器上的可用内存和步骤 1 和 2 中确定的内存使用情况,为 PHP-FPM 分配一定数量的内存。
    • 例如,如果您可以为 PHP-FPM 分配 2GB 内存,并且每个进程使用 0.15GB,则可以运行大约 13 个子进程 (2 / 0.15 = 13.33)。

    步骤 4:配置 PHP-FPM

    • 打开 PHP-FPM 配置文件:
       sudo nano /etc/php/7.x/fpm/pool.d/www.conf
    • 找到以下设置并根据您的计算结果进行调整:
      • pm = dynamic:将此设置为 dynamic 以允许 PHP-FPM 根据需要动态调整子进程的数量。
      • pm.max_children = 12:设置 PHP-FPM 可以创建的最大子进程数。
      • pm.min_spare_servers = 2:设置空闲状态下保持的最小服务器进程数。
      • pm.max_spare_servers = 4:设置空闲状态下保持的最大服务器进程数。
      • pm.start_servers = 12:设置 PHP-FPM 启动时启动的服务器进程数。
      • pm.max_requests = 500:设置每个子进程在重启之前可以处理的最大请求数,以防止内存泄漏。

    步骤 5:保存并重新启动 PHP-FPM

    • 保存配置文件。
    • 重新启动 PHP-FPM 以使更改生效:
       sudo service php7.3-fpm restart

    步骤 6:监控内存使用情况

    • 在进行更改后,请持续监控服务器的内存使用情况,以确保 PHP-FPM 性能最佳,并且不会导致内存不足的问题。

    在 PHP 8 中,您无法完全关闭垃圾回收(GC)机制。

    PHP 的垃圾回收器是其内存管理的核心部分,对于确保脚本运行时的稳定性和防止内存泄漏至关重要。

    尽管您无法禁用 GC,但您可以通过以下方式影响其行为:

    • gc_disable() 函数: 这个函数可以暂时禁用垃圾回收器的运行。 然而,这并不会阻止 PHP 引擎跟踪引用计数。 一旦 gc_enable() 被调用或者脚本结束,垃圾回收器会重新启动并清理不再需要的变量。
    • 修改 php.ini 配置文件: 您可以调整 zend.enable_gc=Off 来禁用循环引用收集器。 将其设置为 Off 会阻止 PHP 引擎检测和清理循环引用,但这可能会导致潜在的内存泄漏,尤其是在处理大量对象和复杂数据结构时。

    重要提示:

    • 强烈建议不要尝试完全禁用 PHP 的垃圾回收机制。 这样做可能会导致不可预测的行为,包括内存泄漏、性能下降,甚至导致 PHP 进程崩溃。
    • 如果您在脚本运行期间遇到与 GC 相关的性能问题,请先尝试优化代码以减少对象创建和循环引用的数量,而不是尝试禁用 GC。

  • 为什么大多数女性对自己的丈夫不满意?

    在现代社会中,有许多女性对自己的丈夫不满意,甚至瞧不上眼。这引发了一个问题:为什么会出现这种现象?我们将从几个可能的原因来探讨。

    追求更好的经济条件

    首先,许多女性在选择伴侣时倾向于追求经济条件优于自己的人,或者至少是与自己经济条件相当的人。这并不是说女性只关注金钱,而是因为她们希望过上更好的生活,享受更高的物质条件。如果她们选择了经济条件不如自己的伴侣,那么她们往往会感到不满意,因为她们希望能够从对方那里获得更多的物质利益。

    制造亏欠心理

    其次,有些女性倾向于通过制造亏欠心理来经营婚姻。她们希望从丈夫那里得到更多的关注和付出,因此经常让丈夫感到亏欠,从而使自己处于控制的位置。这种心理策略使得女性在婚姻中拥有更多的话语权,决定了对方的付出是否符合她们的期望。这样一来,女性可以通过频繁地否定丈夫的努力来维持自己在关系中的优势地位。

    高标准和挑剔

    此外,一些女性可能持有较高的标准,并对伴侣的表现持续挑剔。她们对伴侣的行为和付出有着极高的期望,并且往往只看到对方的不足之处,而忽视了对方的努力和优点。这种持续挑剔的行为会导致女性对丈夫产生不满和瞧不上的感觉。

    不公平的期望和责任分配

    最后,一些女性可能对伴侣有着不公平的期望和责任分配。她们可能认为丈夫应该承担更多的责任,包括经济上的支持、家务劳动、子女教育等。而丈夫的付出往往被视为理所当然,而不被充分认可和赞赏。这种不公平的期望和责任分配会导致女性对丈夫的不满和瞧不上。

    综上所述,大多数女性对自己的丈夫不满意可能是由于多种因素的综合作用。这包括追求更好的经济条件、制造亏欠心理、持有高标准和持续挑剔,以及对伴侣有不公平的期望和责任分配。了解这些因素有助于我们更好地理解婚姻关系中的挑战,并为建立和谐幸福的婚姻关系提供思考和改善的方向。

    参考文献:
    VIERI32. (2024, 6月 4). 为什么大多数女的都瞧不上自己的老公?. Zhihu.

  • 《汤姆叔叔的小屋》:小说引发的美国南北战争

    美国的历史相对来说并不算长久,从独立战争到现在,也只有不到两百年的时间。在哥伦布发现美洲大陆之前,美洲印第安人已经有几千年的文明历史。然而,北美洲的文学在独立战争之前主要是一些宗教诗歌,直到独立战争后,美国才逐渐形成了自己的民族文学。

    1776年,美国宣布独立成为一个独立国家,80年后,美国爆发了历史上规模最大的内战,即南北战争。

    南北战争参战人数高达350万人,其中大部分是志愿兵,这场战争造成了大量伤残和死亡,死亡人数高达百万。

    为什么会爆发这场大战呢?原来,在美国独立后,尽管摆脱了英国的殖民统治,但国内的种族压迫问题一直存在,尤其在美国南方地区更加明显。

    南方地区以种植园经济为主,数百万黑奴每天为白人奴隶主辛勤劳作,却连最基本的人权都没有。

    1861年,林肯当选为美国总统,为了促进经济发展,顺应民意,他决心废除蓄奴制度。然而,在林肯出手之前,南方的奴隶主们却先下手为强。

    最终,南北战争持续了5年,以北方的胜利结束。

    在战争期间,林肯在白宫接见了当时的女作家斯托夫人,并声称这场战争是因为她的书而引发的。斯托夫人的这本书就是《汤姆叔叔的小屋》。

    《汤姆叔叔的小屋》于1852年首次连载,立即引起了巨大反响。仅在第一年,就印刷了100多版,并被翻译成20多种语言,在世界各地传播开来。

    斯托夫人最初并没有预料到这部小说会引起如此大的反响。最初,一家杂志同意连载小说的三四期,但故事越写越长,人物形象越写越栩栩如生,最后连载了四十多期。斯托夫人曾感慨地说:“这部小说是上帝的作品,我只是他手中的一支笔!”

    后来,小说出版成单行本,首印五千册,两天就售罄!随后,八家出版社一起印刷,一年内印刷了三十万册,仍然供不应求。甚至英国和欧洲的出版公司也加入其中,一年内售出了二百五十万册!

    可以说,《汤姆叔叔的小屋》为美国南北战争的爆发起到了决定性的作用。

    这部小说的故事并不复杂,主要讲述了奴隶汤姆叔叔一家在南方种植园主家中辛勤劳作的生活。尽管生活艰辛,但他们对待生活还算平静。然而,当种植园主家破产后,他们被迫分离。汤姆叔叔被卖到远方,经历了苦难和残酷的奴役。

    在途中,汤姆叔叔救起了一名白人女孩,并得到她父亲的感激。然而,后来他又落入了另一个凶残的奴隶主手中,遭受残酷的虐待。

    最终,汤姆叔叔因为保护其他奴隶而被殴打致死。他的死触动了他的主人乔治,乔治以汤姆叔叔的名义解放了所有的黑奴,并希望他们通过《汤姆叔叔的小屋》来铭记自由的重要性。

    《汤姆叔叔的小屋》的出版,揭示和描绘了黑奴的悲惨生活,引起了社会的广泛关注。它成为19世纪最畅销的小说之一,仅次于《圣经》。

    美国南北战争的爆发并非单一原因造成的,但《汤姆叔叔的小屋》的出版无疑是其中一个重要的推动力。这本小说通过生动的描写和强烈的情感,让人们对奴隶制度的残酷性质有了更深刻的认识,进一步激发了废奴运动的发展。

    因此,美国总统林肯将斯托夫人形容为“写了一本书,酿成一场大战的小妇人”,这不是没有道理的。


    参考文献:
    [1] 《汤姆叔叔的小屋》:文学与历史的交汇点. Retrieved from here.


    破坏了社会的共识就破坏了统治的基础!社会围绕一个共同认可的“故事”而存在!

  • Intel发布全新Lunar Lake处理器:GPU和NPU升级,CPU微幅提升

    近年来,Intel在制造上的麻烦、AMD的崛起、Qualcomm的进入以及苹果从客户转变为竞争对手,让Intel的处理器经历了一段艰难时期。如今,计算机购买者拥有比以往更多的选择,而Intel的Meteor Lake架构在技术上的成就似乎比作为前一代Raptor Lake处理器的升级更加引人注目。

    然而,根据市场研究机构Canalys最新的分析报告,Intel仍然占据了绝大部分PC处理器市场,销售的计算机CPU中近四分之三是Intel的。因此,Intel在行业中仍然占据着重要的地位,并且它的行动仍然对整个行业产生影响。

    Lunar Lake:下一代CPU架构的亮点

    现在,让我们来看一看Intel的下一代CPU架构,代号为Lunar Lake。我们早就知道Lunar Lake的存在,因为在微软的Copilot+ PC发布会上,Qualcomm就已经抢先一步,提到了Lunar Lake。而在今年的Computex展上,Intel将在2024年第三季度正式发布Lunar Lake,并透露了更多细节。

    Lunar Lake将是Intel的首款满足微软Copilot+ PC要求的处理器,其中包含了神经处理单元(NPU)。除了人工智能技术的不断发展之外,Lunar Lake还对P核心和E核心进行了升级,采用了下一代GPU架构,并对Meteor Lake中的一些显著改变进行了扩展和还原。

    值得注意的是,对于将Meteor Lake的重大改变首次引入插槽式台式机主板的Arrow Lake架构,Intel并没有提供更多信息。但是,Intel表示Arrow Lake仍然按计划在2024年第四季度发布,并有可能在9月底的Intel年度创新活动上宣布。

    构建在Meteor Lake基础上

    Lunar Lake与Meteor Lake有一些共同之处,包括使用基于芯片组的设计,利用Intel的Foveros封装技术将多个硅芯片组合成一个大芯片。但是,与Meteor Lake相比,Lunar Lake在某些方面更加简单和传统。

    Meteor Lake的组件分布在四个平铺中:一个计算平铺主要用于CPU核心,一个由台积电制造的图形平铺用于GPU渲染硬件,一个IO平铺用于处理PCI Express和Thunderbolt连接等功能,以及一个混合平铺,内含额外的CPU核心、媒体编解码引擎、显示连接和NPU等。

    而Lunar Lake只有两个功能平铺,另外还有一个小的“填充平铺”,这个平铺似乎只是为了使Lunar Lake硅芯片组装在一起后能成为一个完美的矩形。计算平铺集成了处理器的所有P核心和E核心、GPU、NPU、显示输出以及媒体编解码引擎。而平台控制器平铺则负责有线和无线连接,包括PCIe、USB、Thunderbolt 4、Wi-Fi 7和Bluetooth 5.4等。

    这与Intel多年来一直在笔记本电脑芯片中使用的分割方式基本相同:一个芯片组芯片和一个CPU、GPU以及其他一切的芯片。不同的是,现在这两个芯片是同一个硅片上的一部分,而不是同一个处理器封装上的独立芯片。回顾起来,Meteor Lake中最引人注目的设计变化,如将与GPU相关的功能分散在不同的平铺中、在SoC平铺内增加额外的CPU核心等,似乎是因为Intel不得不应对另一家公司实际上是制造大部分GPU的情况。现在有了机会,Intel又回到了更加常见的组件构造方式。

    另一个重大的封装变化是,Intel将内存集成到Lunar Lake处理器封装中,而不是单独安装在主板上。Intel表示,这样做可以节省40%的功耗,因为数据传输的距离更短。同时,这也节省了主板空间,可以用于其他组件,使系统更小型,或者为电池腾出更多空间。苹果的M系列芯片也采用了内存集成在封装中的设计。

    据Intel表示,Lunar Lake处理器可以搭载高达32GB的LPDDR5x内存。不过,与此同时,这种封装方式会导致无法使用单独的压缩附加内存模块(CAM),CAM可以结合传统的可升级DIMM模块和焊接式笔记本内存的优点。

    结论

    Intel的全新Lunar Lake处理器代表着其下一代CPU架构的重要进展。它引入了神经处理单元(NPU),提供了升级的P核心和E核心架构,采用了下一代的GPU架构,并进行了封装方面的改进。尽管在近年来面临一系列挑战,但Intel仍然在PC处理器市场上占据主导地位。

    通过Lunar Lake的发布,Intel将进一步巩固其在计算机处理器领域的地位,并为整个行业设定了新的发展方向。随着Arrow Lake架构的即将到来,我们可以期待更多令人兴奋的创新和提升。

    参考文献:

    [1] Cunningham, A. “Intel details new Lunar Lake CPUs off AMD, Qualcomm, and Apple.” Ars Technica. Retrieved from here.

  • OLED 屏幕:美丽的陷阱?

    —— 谈谈低频 PWM 对眼睛的潜在危害

    近年来,OLED 屏幕以其鲜艳的色彩、深邃的黑色和轻薄的特性,迅速占领了手机、电视等电子产品的显示市场。然而,很少有人意识到,在这绚丽的背后,隐藏着一个不可忽视的健康隐患——低频 PWM 调光技术。

    看不见的闪烁:PWM 调光原理

    PWM,全称脉冲宽度调制,是一种通过快速开关屏幕背光来调节亮度的技术。试想一下,手持手电筒,快速开关,你就能感受到忽明忽暗的变化。PWM 调光正是利用了类似的原理,通过控制亮屏和暗屏的时间比例来实现不同的亮度等级。

    当 PWM 频率较高时,例如 2000Hz 以上,人眼难以察觉这种闪烁,会将其视为稳定的亮度。然而,目前主流 OLED 屏幕普遍采用低频 PWM 调光,频率通常低于 300Hz,这就为我们的眼睛埋下了隐患。

    大脑被骗了,眼睛却很累:低频 PWM 的危害

    你或许会说,我看 OLED 屏幕时并没有感觉到闪烁,怎么会伤眼呢?这是因为,虽然人眼无法感知高频闪烁,但并不代表我们的眼睛不受影响。

    想象一下,你正在观看一部动作电影,画面快速切换,虽然你能看清剧情,但长时间观看也会感到疲劳。低频 PWM 也是如此,虽然大脑被“欺骗”了,但我们的视锥细胞和眼部肌肉却在不断地根据光线变化进行高频调节,这会导致眼部肌肉疲劳,出现眼干、眼涩、视力下降等问题。

    “不敏感”只是错觉:长期危害不容忽视

    有些人声称自己对低频 PWM 不敏感,这其实是一种错觉。就像长期搬运重物,即使年轻力壮的人,也难免出现肌肉劳损。低频 PWM 对眼睛的伤害是一个日积月累的过程,短期内可能不易察觉,但长期使用会导致眼部健康状况下降,最终影响视力。

    如何选择护眼屏幕?

    那么,如何选择对眼睛更友好的屏幕呢?

    • 关注 PWM 频率: 选择 PWM 频率较高的屏幕,最好在 2000Hz 以上,可以有效减少眼部负担。
    • DC 调光更佳: DC 调光通过直接调节电流大小来改变屏幕亮度,不会产生闪烁,对眼睛更友好。
    • 注意使用习惯: 避免长时间使用电子设备,注意休息眼睛,保持良好的用眼习惯。

    结语

    科技发展日新月异,在享受科技带来的便利的同时,我们也要关注其潜在的健康风险。选择合适的电子产品,养成良好的使用习惯,才能更好地保护我们的视力健康,享受清晰明亮的世界。

  • ActivityPub是一种开放的、基于分布式社交网络的协议

    Reblog via admin

    ActivityPub是一种开放的、基于分布式社交网络的协议,用于创建、更新和删除内容,并实现服务器之间的通信和内容传递。它为客户端到服务器和服务器到服务器提供了API接口,使得用户可以方便地在不同的社交网络平台之间进行交流和互动。

    ActivityPub的目标是构建一个去中心化的社交网络,让任何人都可以在网络上运行自己的节点,并与其他服务器上的用户进行关注、点赞、评论等互动。这种去中心化的架构使得用户可以更好地掌控自己的数据和隐私,并且不受单一平台的限制。

    ActivityPub使用ActivityStreams作为其词汇,它包含了表示社交网络中各种活动和内容的常用术语。ActivityStreams的词汇已经包含了大部分我们在社交网络中需要使用的词汇,但即使它没有覆盖到我们所需的所有情况,我们仍然可以通过扩展JSON-LD来自定义新的词汇。

    JSON-LD是一种用于表示语义数据的JSON扩展格式,它可以将数据组织成图形结构,并提供了一种机制来连接不同的数据源。对于了解JSON-LD的人来说,可以采取更加高级的链接数据方法;而对于不熟悉JSON-LD的人来说,JSON-LD文档和ActivityStreams可以被理解为普通的JSON格式。通过使用JSON-LD,我们可以更好地描述和表示社交网络中的各种活动和内容。

    在ActivityPub中,用户通过其在服务器上的帐户来表示为”actors”,每个帐户对应一个独立的”actor”。每个”actor”都有自己的收件箱(inbox)和发件箱(outbox),用于接收和发送消息。用户可以在发件箱中发布消息,其他用户可以通过收件箱接收到这些消息。服务器之间也可以相互传递消息和内容,以实现跨服务器的互联互通。

    举个例子,假设我们有两个用户Alyssa和Ben,他们分别在不同的服务器上拥有自己的帐户。当Alyssa想给Ben发送一条消息时,她会将消息发布到自己的发件箱中。然后,Alyssa的服务器会查找Ben的收件箱地址,并将消息发送到Ben的收件箱中。Ben可以通过检查自己的收件箱来读取Alyssa发送的消息。

    此外,ActivityPub还支持用户之间的关注、点赞、评论等互动。用户可以关注其他用户的帐户,以便在自己的收件箱中接收他们的消息。用户还可以对其他用户的帖子进行点赞或评论,这些互动也会通过服务器之间的通信进行传递。

    ActivityPub协议是世界广泛支持的社交网络标准,在Fediverse中得到了广泛应用。该标准由Evan Prodromou(StatusNet的创始人)等人共同编写,并于2018年1月被W3C发布为推荐标准。

    ActivityPub的独特之处在于它允许用户在不同的服务器上创建帐户,并与其他服务器上的用户进行互动。这种联邦架构使得用户可以选择自己喜欢的服务器,并与其他用户跨服务器进行关注、点赞、评论等互动。

    目前,许多社交网络平台已经实现了ActivityPub协议,包括Mastodon、PeerTube、Pixelfed等。这些平台都允许用户在自己的服务器上创建帐户,并与其他平台上的用户进行互动。用户可以通过关注其他用户的帐户,接收他们的消息和更新。他们还可以在自己的发件箱中发布消息,使其可供其他用户阅读和互动。

    此外,ActivityPub还支持用户之间的私信功能。用户可以通过私信功能与其他用户进行一对一的私密对话,这些对话只有双方能够看到。

    Mastodon是基于ActivityPub协议构建的一个开源微博平台,类似于Twitter。用户可以在Mastodon上创建自己的帐户,并与其他用户进行关注、点赞、评论等互动。Mastodon的一个独特之处在于它由许多独立的服务器组成,这些服务器之间通过ActivityPub协议进行通信,用户可以选择加入任何一个服务器。

    PeerTube是基于ActivityPub协议构建的一个开源视频分享平台,类似于YouTube。用户可以在PeerTube上上传和分享视频,并与其他用户进行互动。PeerTube的联邦架构允许用户自主选择他们信任的服务器,并在不同的服务器之间共享视频内容。

    Pixelfed是基于ActivityPub协议构建的一个开源图片分享平台,类似于Instagram。用户可以在Pixelfed上上传和分享图片,并与其他用户进行互动。Pixelfed的联邦架构使得用户可以选择他们喜欢的服务器,并与其他服务器上的用户进行互动。

    随着ActivityPub协议的不断发展和完善,越来越多的社交网络平台将采用这一标准。这将促进不同平台之间的互操作性和联邦互联,使用户能够更加自由地选择他们喜欢的平台,并与不同平台上的用户进行交流和互动。

    未来,我们可以期待更多创新和发展,例如更加智能化的内容推荐算法、更加灵活的隐私设置以及更加丰富的互动功能。ActivityPub将继续推动社交网络的去中心化和用户自主性的发展,为用户提供更加丰富、安全和自由的社交网络体验。

    参考文献:

    https://www.zhichai.net/activitypub%ef%bc%9a%e6%9e%84%e5%bb%ba%e5%88%86%e5%b8%83%e5%bc%8f%e7%a4%be%e4%ba%a4%e7%bd%91%e7%bb%9c%e7%9a%84%e5%bc%80%e6%94%be%e5%8d%8f%e8%ae%ae/

  • 波音“吹哨人”之死:安全与责任的双重危机

    引言

    2024年3月9日,波音公司前质量经理约翰·巴内特(John Barnett)的离奇死亡,让公众的目光再次聚焦于这家航空巨头的产品质量与安全问题。巴内特曾是波音的“吹哨人”,勇敢揭露了波音787梦想飞机的严重安全问题,却在退休后面临了来自公司的报复和敌对工作环境。

    巴内特的警示

    巴内特在波音北查尔斯顿工厂担任质量经理期间,发现了波音787梦想飞机存在的安全隐患。他曾向BBC透露:“在企业产量的压力之下,生产线上的工人们故意将有缺陷的零部件安装到飞机上。”^1 这一行为直接威胁到乘客的安全。

    波音的回应与后果

    波音公司对巴内特的指控拒不承认,但美国监管机构联邦航空管理局(FAA)的审查却揭露了相似的问题。2017年,FAA在审查中发现工厂内有53个有缺陷的零件下落不明^2。然而,波音公司并未采取有效措施解决问题,反而对巴内特进行了诋毁和职业上的阻碍。

    企业文化的质疑

    波音公司近年来推行的“多样性、平等与包容”(DEI)项目,引发了外界对其企业文化的质疑。埃隆·马斯克(Elon Musk)在社交媒体上指责波音公司,认为其优先考虑DEI而非乘客安全^3。波音公司年度计划中将DEI和气候目标与高管奖金挂钩,这可能导致公司在招聘和技术考量上偏离了安全和质量的核心^4

    FAA与波音的“亲密关系”

    美国联邦航空管理局(FAA)与波音公司之间的关系也受到了质疑。FAA在监管上的缺位,以及波音公司在安全测试上的“自我认证”,使得存在重大质量缺陷的飞机得以正常投入使用^5。这种监管上的松懈,不仅影响了波音公司的产品质量,更可能对其长期发展带来严重的后果。

    美国制造业的系统性缺陷

    波音公司的案例反映出美国制造业的系统性缺陷。过度依赖外包生产,以及政府与企业之间的密切合作,导致了监管的难度和范围的扩大。《华尔街日报》指出,外包策略虽然加快了技术开发的速度,但也增加了监管的挑战^6

    结语

    巴内特的死亡不仅是一场悲剧,更是对波音公司以及整个美国制造业安全与责任的一次严峻考验。企业在追求经济利益的同时,不应忽视对乘客安全的责任。政府机构在监管上也应保持警惕,避免因过度亲密的合作关系而导致监管缺位。

    参考文献

    1. Brandon Morse, “Flyers Purposefully Avoiding Flights on Boeing Planes as Safety Concerns Become Impossible to Ignore”, Red State, March 26, 2024
    2. Mark Walker, “F.A.A. Audit of Boeing’s 737 Max Production Found Dozens of Issues”, The New York Times, March 11, 2024
    3. John Cassidy, “How Boeing and the F.A.A. Created the 737 MAX Catastrophe”, The New Yorker, September 17, 2020
    4. Rod Dreher, “Diversity Is Going To Get Us Killed”, January 10, 2024
    5. Shannon Thaler, “Boeing prioritizing diversity and inclusion over flier safety, Elon Musk says after near-catastrophic Alaska Airlines mishap”, New York Post, January 11, 2024
    6. Theo Leggett, “Boeing: How much trouble is the company in?”, BBC News, March 17, 2024
  • 美国波音公司的质量经理莫名其妙的“自杀”身亡

    美国波音公司的质量经理约翰·巴尼特的自杀身亡引起了广泛关注。以下是关于这一事件的详细信息:

    1. 事件背景:
    • 约翰·巴尼特是一位曾在波音公司工作了32年的质量经理[1]
    • 他在2010年至2017年期间担任北查尔斯顿工厂的质控经理,并在2019年曝光了波音公司的生产安全问题[1]
    1. 自杀事件:
    • 今年3月9日,约翰·巴尼特原本计划出庭指认波音公司的诽谤,但被发现死于自己的卡车中[1]
    • 根据当地警方的调查,约翰·巴尼特的死因被确定为自杀[1]
    1. 波音公司安全问题:
    • 约翰·巴尼特是波音公司的吹哨人,他曾公开揭发波音公司存在的安全隐患[1]
    • 他在2016年向美国联邦航空局(FAA)举报了波音787的氧气系统失效问题,但FAA对此处理态度不力[2]
    • 在2019年波音737MAX飞机事故后,约翰·巴尼特再次引起了全球的关注,成为波音吹哨人的代表[2]
    1. 疑点和争议:
    • 有人对约翰·巴尼特的自杀事件提出了疑点,认为这其中存在许多不明确的因素[2]
    • 一些人认为波音公司可能对吹哨人采取了打压和报复行为,导致约翰·巴尼特选择自杀[2]

    综合来看,约翰·巴尼特作为波音公司的质量经理和吹哨人,在揭发公司安全问题的过程中承受了巨大的压力。他的自杀事件引发了对波音公司安全问题和内部打压行为的关注和争议。


    Learn more:

    1. 美警方确认波音安全问题举报人约翰·巴尼特因自杀身亡全球速报澎湃新闻-The Paper
    2. 波音吹哨人”自杀”,疑点实在是太多了澎湃号·媒体澎湃新闻-The Paper
    3. 数次举报波音安全问题的前员工,在提供证词前夕突然死亡澎湃号·媒体澎湃新闻-The Paper

    =除了约翰·巴尼特之外,波音公司还有其他员工因举报安全问题而遭到报复的情况。

    根据新华网的报道[1],两名波音工程师曾因飞机的技术事项与管理层意见不和,遭到打击报复。这两名工程师坚持要求遵循联邦航空局新指南,但上级认为这样会增加成本并且延误生产,因此不同意。在联邦航空局的支持下,上级最终不得不同意。然而,这两名员工后来被波音方面给予负面评定,其中一名员工已经离职。

    此外,根据半岛电视台的报道[2],波音公司在过去三年里向美国工作场所安全监管机构提出了32起举报投诉。这显示出这家陷入困境的飞机制造商正在接受越来越严格的标准审查,暗示可能存在其他员工因举报安全问题而遭到报复的情况。


    Learn more:

    1. 安全漏洞、“吹哨人”疑遭报复……波音公司乱象迭出-新华网
    2. 波音公司遭遇 32 名举报人指控与工人身亡案件复审 | 经济 | 半岛电视台
    3. 数次举报波音安全问题的前员工,在提供证词前夕突然死亡澎湃号·媒体澎湃新闻-The Paper
  • 100开头的IP地址:是公网还是内网?

    你是否留意过自家路由器的WAN口IP地址?最近,越来越多的用户发现自己的IP地址是以“100”开头。这是否意味着我们使用的都是内网IP呢?

    答案并非如此简单。许多人误以为所有以“100”开头的IP地址都是内网IP,但实际上,我们熟悉的内网IP地址仍然是以下三组:

    • 10.0.0.0/8
    • 172.16.0.0/12
    • 192.168.0.0/16

    那么,这些“100”开头的IP地址究竟是什么来头?

    “100”开头的IP地址:共享地址的秘密

    准确地说,这些IP地址属于 100.64.0.0 – 100.127.255.255 这个范围,根据 RFC 6598 的定义,它们并非私有地址,而是保留的共享地址,专门供网络服务提供商用于 NAT(网络地址转换)。

    简单来说,这些地址就像运营商内部的“VIP通道”,专门用于连接用户和真正的互联网。当你使用“100”开头的IP地址上网时,你的数据实际上需要经过运营商的NAT设备进行一次“中转”,才能最终到达目标服务器。

    共享地址带来的影响:速度与安全

    那么,使用这种共享地址上网会带来哪些影响呢?

    首先,最直观的影响就是网速。由于数据需要经过额外的NAT转换,因此访问速度相比直接使用公网IP会慢一些,尤其是在进行下载、游戏等对网络速度要求较高的活动时,这种差异会更加明显。

    当然,这种速度差异一般情况下并不明显,毕竟运营商的NAT设备性能强大,转换速度非常快。

    其次,使用共享地址还会影响到网络安全。由于你的设备没有直接暴露在公网上,因此黑客直接攻击你的设备会更加困难,相当于多了一层防护。

    共享地址的未来:IPv6时代即将到来

    运营商之所以采用这种共享地址的方式,主要原因还是 IPv4 地址资源的枯竭。为了在有限的IP地址资源下尽可能多地接入用户,NAT技术成为了目前最有效的解决方案。

    然而,随着 IPv6 协议的普及,这种共享地址的方式也将成为历史。在 IPv6 时代,每个设备都将拥有独立的IP地址,无需再进行NAT转换,网络速度和安全性都将得到极大提升。

    总结

    总而言之,“100”开头的IP地址并非传统意义上的内网IP,而是运营商为了缓解IPv4地址短缺而采取的临时措施。虽然它会对网络速度和访问方式造成一定影响,但总体而言还是利大于弊。相信在不久的将来,随着IPv6的普及,我们将彻底告别共享地址,迎来更加快速、安全的网络时代!

    参考文献:

    • RFC 6598 – IANA-Reserved Private Address Space
    • RFC 1918 – Address Allocation for Private Internets
  • OLED屏幕频闪:揭开真相的科普

    随着智能手机的普及和使用时间的增加,人们对于手机屏幕对眼睛的影响越来越关注。其中,OLED屏幕频闪问题备受争议。频闪是否真的会伤害眼睛?本文将通过解析参考文献《(高清正版)IEEE Std 1789-2015》以及其他相关资料,揭示OLED屏幕频闪问题的真相。

    什么是频闪?

    频闪是指OLED屏幕通过不断的“亮”和“灭”交替来实现调光的过程。这种频闪一般是肉眼无法察觉的,因为人眼对于80Hz以上的频闪很难察觉到。然而,即使肉眼无法察觉,频闪仍会刺激视神经并导致眼疲劳。频闪问题并不仅存在于手机屏幕上,许多商店的灯光以及其他光源也存在频闪现象。

    频闪的影响

    长时间盯着频闪屏幕可能导致眼疲劳、视力下降、注意力分散甚至偏头痛等不适感。然而,需要注意的是,频闪并非只存在于手机屏幕上,而是在各种光源中都可能存在。手机屏幕对频闪的要求更为严格,因为人们通常会长时间近距离地盯着手机屏幕,尤其是在晚上。

    频闪评估标准

    IEEE《Std1789-2015》提供了对频闪问题的评估标准。根据该标准,频闪频率高于3125Hz被认为是完全无风险的,而1250Hz到3125Hz之间是低风险范围。因此,只要频闪频率超过1250Hz,就属于低风险。

    波动深度的重要性

    除了频闪频率,波动深度也是评估频闪问题的重要因素。波动深度指的是屏幕亮度的变化幅度,波动深度越大,频闪对眼睛的刺激就越强。IEEE标准规定,波动深度的上限值等于频闪频率乘以0.08%。

    频闪风险的判断

    结合频闪频率和波动深度,可以对频闪风险进行评估。例如,iPhone12系列在50%亮度下的波动深度为83.8%,属于高风险范围。然而,仅凭频闪和波动深度无法全面评估风险程度,还需要结合实际拍摄图像来判断。有些手机在低亮度下可能频闪严重,但在拍摄照片时并没有明显的频闪现象,这种情况下可以认为风险较低。

    解决频闪问题的方法

    针对频闪问题,我们可以采取以下解决办法:

    1. 选择LCD屏幕手机:LCD屏幕的蓝光辐射相对较低。
    2. 选择高频PWM调光手机:某些手机采用高频PWM调光,频闪风险较低。
    3. 开启深色模式:频闪主要在显示白色时较为明显,开启深色模式可以减少亮度的波动。
    4. 注意环境光线:在环境光较暗的情况下,尽量避免长时间盯着手机屏幕,因为此时手机作为唯一光源,频闪的危害会更大。最好保持一定的照明光源。
    5. 开启类DC调光功能:一些手机采用类DC调光技术,通过软件算法减轻频闪强度。然而,需要注意的是,类DC调光可能会对色彩准确性、亮度稳定性等产生影响,因此厂商对其使用情况进行了限制。

    频闪问题的综合评估

    对于频闪问题,无法简单地以频闪频率或波动深度作为唯一的评判标准。综合考虑频闪频率、波动深度、实拍图像以及闪烁指数等因素才能全面评估风险程度。不同手机在不同亮度下的表现也会有所差异,因此需要综合考虑多个因素来判断频闪问题的严重程度。

    结论

    OLED屏幕的频闪问题确实存在,而评估频闪风险需要综合考虑频闪频率、波动深度、实拍图像等因素。虽然一些解决办法可以减轻频闪的影响,但长时间使用任何屏幕对眼睛和身体都可能产生一定的影响。因此,我们应该适度使用手机,并注意保护眼睛的健康。

    在面对OLED屏幕频闪问题时,敏感人群需要格外关注自己的视力反应。尽量避免在黑暗的环境中使用OLED屏幕,因为这可能加深频闪的危害。同时,尽量避免让儿童使用OLED屏幕,因为他们的眼睛更为娇嫩,对频闪的敏感程度可能更高。

    对于普通人群,虽然频闪问题可能存在一定的风险,但目前尚无权威机构给出明确结论。因此,我们应该保持警惕,并关注相关研究的进展。最重要的是,适度使用手机并采取适当的防护措施,保护眼睛的健康。

    参考文献:

  • OLED屏幕的频闪问题:真相揭秘

    OLED屏幕的频闪问题:真相揭秘

    随着智能手机的普及和使用时间的增加,人们对于手机屏幕对眼睛的影响越来越关注。其中,OLED屏幕频闪问题备受争议。频闪是否真的会伤害眼睛?本文将通过解析参考文献《(高清正版)IEEE Std 1789-2015》以及其他相关资料,揭示OLED屏幕频闪问题的真相。

    什么是频闪?

    频闪是指OLED屏幕通过不断的“亮”和“灭”交替来实现调光的过程。这种频闪一般是肉眼无法察觉的,因为人眼对于80Hz以上的频闪很难察觉到。然而,即使肉眼无法察觉,频闪仍会刺激视神经并导致眼疲劳。频闪问题并不仅存在于手机屏幕上,许多商店的灯光以及其他光源也存在频闪现象。

    频闪的影响

    长时间盯着频闪屏幕可能导致眼疲劳、视力下降、注意力分散甚至偏头痛等不适感。然而,需要注意的是,频闪并非只存在于手机屏幕上,而是在各种光源中都可能存在。手机屏幕对频闪的要求更为严格,因为人们通常会长时间近距离地盯着手机屏幕,尤其是在晚上。

    频闪评估标准

    IEEE《Std1789-2015》提供了对频闪问题的评估标准。根据该标准,频闪频率高于3125Hz被认为是完全无风险的,而1250Hz到3125Hz之间是低风险范围。因此,只要频闪频率超过1250Hz,就属于低风险。

    波动深度的重要性

    除了频闪频率,波动深度也是评估频闪问题的重要因素。波动深度指的是屏幕亮度的变化幅度,波动深度越大,频闪对眼睛的刺激就越强。IEEE标准规定,波动深度的上限值等于频闪频率乘以0.08%。

    频闪风险的判断

    结合频闪频率和波动深度,可以对频闪风险进行评估。例如,iPhone12系列在50%亮度下的波动深度为83.8%,属于高风险范围。然而,仅凭频闪和波动深度无法全面评估风险程度,还需要结合实际拍摄图像来判断。有些手机在低亮度下可能频闪严重,但在拍摄照片时并没有明显的频闪现象,这种情况下可以认为风险较低。

    解决频闪问题的方法

    针对频闪问题,我们可以采取以下解决办法:

    1. 选择LCD屏幕手机:LCD屏幕的蓝光辐射相对较低。
    2. 选择高频PWM调光手机:某些手机采用高频PWM调光,频闪风险较低。
    3. 开启深色模式:频闪主要在显示白色时较为明显,开启深色模式可以减少亮度的波动。
    4. 注意环境光线:在环境光较暗的情况下,尽量避免长时间盯着手机屏幕,因为此时手机作为唯一光源,频闪的危害会更大。最好保持一定的照明光源。
    5. 开启类DC调光功能:一些手机采用类DC调光技术,通过软件算法减轻频闪强度。然而,需要注意的是,类DC调光可能会对色彩准确性、亮度稳定性等产生影响,因此厂商对其使用情况进行了限制。

    频闪问题的综合评估

    对于频闪问题,无法简单地以频闪频率或波动深度作为唯一的评判标准。综合考虑频闪频率、波动深度、实拍图像以及闪烁指数等因素才能全面评估风险程度。不同手机在不同亮度下的表现也会有所差异,因此需要综合考虑多个因素来判断频闪问题的严重程度。

    结论

    OLED屏幕的频闪问题确实存在,而评估频闪风险需要综合考虑频闪频率、波动深度、实拍图像等因素。虽然一些解决办法可以减轻频闪的影响,但长时间使用任何屏幕对眼睛和身体都可能产生一定的影响。因此,我们应该适度使用手机,并注意保护眼睛的健康。

    参考文献:

  • SSE (Server-Sent Events) 概念和工作原理

    一、什么是 SSE?

    Server-Sent Events (SSE) 是一种服务器推送技术,允许服务器单向地将数据推送给客户端。与传统的客户端请求-服务器响应模式不同,SSE 允许服务器在任何时候主动向客户端发送数据,而无需客户端明确请求。

    二、SSE 的工作原理

    1. 建立连接: 客户端使用 EventSource API 建立到服务器的持久 HTTP 连接。
    2. 订阅事件流: 服务器端会生成一个事件流,并将数据以文本流的形式发送给客户端。
    3. 接收和处理数据: 客户端监听 message 事件,并在接收到数据时进行处理。
    4. 保持连接: 连接会一直保持,直到客户端或服务器断开连接。

    三、SSE 的特点

    • 单向推送: 数据传输方向是从服务器到客户端,客户端不能向服务器发送数据。
    • 基于 HTTP 协议: SSE 使用 HTTP 协议进行通信,无需额外的协议支持。
    • 轻量级: SSE 相比 WebSocket 更轻量级,更易于实现和维护。
    • 实时性: SSE 可以实现实时数据推送,但相较于 WebSocket 会有一定的延迟。

    四、SSE 的应用场景

    • 实时数据更新: 例如股票报价、新闻推送、社交媒体通知等。
    • 进度条显示: 例如文件上传、下载进度等。
    • 聊天应用: 例如简单的聊天室、客服系统等。

    五、SSE 与 WebSocket 的比较

    特性SSEWebSocket
    数据传输方向单向双向
    协议HTTPWebSocket
    复杂度
    实时性较低
    应用场景单向数据推送双向实时通信

    六、总结

    SSE 是一种简单高效的服务器推送技术,适用于单向实时数据推送的场景。它易于实现和维护,并且可以与现有 HTTP 基础设施良好兼容。