当前位置: 首页 > news >正文

【自然语言处理】语料库:自然语言处理的基石资源与发展全景

目录

一、引言

二、语料库的基本概念:从 “文本集合” 到 “知识载体”

(一)真实性:语言使用的 “原生态记录”

(二)资源性:语言知识的 “承载容器”

(三)加工性:从 “原始数据” 到 “有用资源” 的蜕变

语料库的获取渠道:从付费机构到免费资源

三、语料库语言学的发展阶段:从沉寂到繁荣的百年历程

(一)20 世纪 50 年代中期以前:早期语料库语言学的 “萌芽探索”

(二)1957 年至 20 世纪 80 年代初期:转换生成语法冲击下的 “沉寂期”

(三)20 世纪 80 年代至今:计算机技术驱动下的 “复苏与繁荣期”

四、语料库的类型:多维视角下的分类体系

(一)通用语料库与专用语料库:“广度” 与 “深度” 的分野

(二)单语、双语与多语语料库:“语言数量” 的维度

(三)共时语料库与历时语料库:“时间维度” 的考量

(四)生语料库与熟语料库:“加工程度” 的差异

五、典型语料库实例:从经典到前沿的标杆探索

(一)Brown 语料库:通用语料库的 “开山之作”

(二)Penn TreeBank:句法标注的 “黄金标准”

(三)PropBank:语义角色标注的 “里程碑”

(四)FrameNet:框架语义的 “系统化实践”

(五)LDC 中文树库(CTB):中文句法研究的 “核心资源”

(六)北京大学语料库:中文分词与词性标注的 “标杆”

六、语料处理的基本问题:从 “原始文本” 到 “可用资源” 的鸿沟

(一)汉语预处理:自动分词的 “拦路虎”

(二)英语预处理:“空格≠词边界” 的认知颠覆

1. 空格围起多个词

2. 空格不是分界标志

3. 大小写问题

七、结语:语料库的未来 —— 从 “资源” 到 “生态” 的进化


一、引言

在信息处理与人工智能的浪潮中,自然语言处理(NLP)作为跨越语言与技术鸿沟的关键领域,其发展始终离不开语料库与词汇知识库的支撑。语料库(Corpus,复数形式为 Corpora)不仅是语言数据的 “仓库”,更是语言学研究、NLP 技术突破的核心资源,有时甚至成为系统迭代的 “瓶颈”(宗成庆,2008)。本文将从概念溯源、发展脉络、类型划分、典型实例到处理难题,全方位剖析语料库这一 NLP 基石资源的全貌。

二、语料库的基本概念:从 “文本集合” 到 “知识载体”

语料库是存储自然语言使用实例的数据库(文本集合),特指经系统化整理、具备标准化格式与标记的计算机数字化语料集合。其核心属性可从三个维度解构:

(一)真实性:语言使用的 “原生态记录”

语料库收录的是语言在真实场景中自然出现的材料,而非人为构造的例句。这一属性使其区别于传统例句库 —— 例句库因缺乏自然语境的多样性,无法反映语言使用的真实规律,因此通常不被视为语料库。例如,研究英语母语者的日常交流,需依赖包含真实对话的口语语料库,而非语法书中的虚构例句。

(二)资源性:语言知识的 “承载容器”

语料库以电子计算机为载体,是承载语言知识的基础资源,但并非语言知识本身。它如同 “原始矿石”,需经 “冶炼”(加工、分析)才能提炼出语言学规律、NLP 模型所需的知识。例如,未经标注的生语料库仅能提供文本数据,而经词性、句法标注的熟语料库,才能直接为语法分析模型提供训练资源。

(三)加工性:从 “原始数据” 到 “有用资源” 的蜕变

真实语料需经多层次加工(如分词、词性标注、句法分析、语义标注等),才能转化为可直接服务于研究或应用的资源。这种加工是语料库价值释放的关键 —— 未经处理的 “生语料” 如同杂乱的原料,而经标注的 “熟语料” 则是规整的 “零件”,可直接用于 NLP 模型训练、语言学规律挖掘。

语料库是语料库语言学的研究基石,也是经验主义语言研究方法的核心载体,其应用场景贯穿:

  • 词典编纂(如牛津英语词典的修订依赖大规模语料库的词频统计);
  • 语言教学(通过真实语料展示词汇、语法的使用场景);
  • 传统语言学研究(如历史语言学通过历时语料库追踪语言演变);
  • 自然语言处理(基于统计的机器翻译、情感分析、命名实体识别等技术,均以语料库为训练基础)。

语料库的获取渠道:从付费机构到免费资源

获取语料库的途径呈现 “两极分化”:一方面,国际上有诸多专业机构以语言学研究为目的分发语料库,多数需付费(单张 CD 价格在 100~2000 美元区间),反映出语料收集与处理的高昂成本。表 1 列举了部分主流语料库供应机构及其官方网址:

表 1 主要语料库供应机构及其 URL

语料库供应机构官方 URL
Linguistic Data Consortium (LDC)http://www.ldc.upenn.edu
European Language Resources Association (ELRA)http://www.icp.grenet.fr/ELRA/
International Computer Archive of Modern English (ICAME)http://nora.hd.uib.no/icame.html
Oxford Text Archive (OTA)http://ota.ahds.ac.uk/
Child Language Data Exchange System (CHILDES)http://childes.psy.cmu.edu/

另一方面,网络上存在大量免费文本资源(如电子邮件、网页、开源书籍与杂志等)。这些资源虽非标注语料,但可通过 OpenNLP、FudanNLP、Stanford NLP、LTP(语言技术平台)等工具自动添加词性、句法等标记,转化为可用的语料资源。

三、语料库语言学的发展阶段:从沉寂到繁荣的百年历程

语料库语言学(Corpus Linguistics)是基于语料库开展语言学研究的学科,其发展脉络可划分为三个鲜明阶段,折射出语言学研究范式与技术环境的深刻变革。

(一)20 世纪 50 年代中期以前:早期语料库语言学的 “萌芽探索”

这一阶段的研究聚焦于语言习得、音系学与方言学,为语料库方法奠定了早期基础:

  • 语言习得研究:19 世纪 70 年代,欧洲儿童语言发展模式研究的第一次高潮,便依赖父母对子女话语发展的日记式语料记录;20 世纪 30 年代以来,语言学家与心理学家通过分析大量儿童自然话语,建立了不同年龄段的语言发展模式,这些模式成为儿童语言学的重要理论支撑。
  • 音系学研究:西方结构主义语言学家(如 F. Boas、E. Sapir)强调语料获取的自然性与分析的客观性,主张通过真实语料揭示音系规律。这种 “基于实证” 的研究思路,为后续语料库语言学的 “经验主义” 取向埋下伏笔。
  • 方言学与语料技术结合:西方方言学脱胎于 19 世纪历史比较语言学,研究者通过笔记本、录音机等工具记录方言素材,进而分析方言词汇的地理分布、使用频率等现象,开创了 “语料驱动方言研究” 的先河。

(二)1957 年至 20 世纪 80 年代初期:转换生成语法冲击下的 “沉寂期”

1957 年乔姆斯基《句法结构》的发表,从根本上改变了语言学研究的范式,也使语料库语言学进入长达 20 余年的沉寂期。转换生成语法学派否定早期语料库研究方法,核心依据有二:

  • 语料的 “局限性”:认为语料只是 “外在化话语的汇集”,基于语料建立的模式仅能 “部分解释” 语言能力,无法成为语言研究的 “得力工具”。
  • 语料的 “不完整性”:主张自然语言的 “创造性” 使其语料永远无法穷尽,因此基于语料的归纳研究存在先天缺陷。

尽管如此,仍有部分学者坚持语料库研究。例如,英国语言学家 Randolph Quirk 团队持续开展英语语料库建设,为后续语料库语言学的复苏保留了火种。

(三)20 世纪 80 年代至今:计算机技术驱动下的 “复苏与繁荣期”

语料库语言学自 20 世纪 80 年代起迎来爆发式发展,这一繁荣既源于计算机技术的普及,也因转换生成语法的批判被实践证伪(宗成庆,2008)。其发展集中体现为两大趋势:

  • 第二代语料库的 “技术革命”:以伯明翰英语语料库为代表,这批语料库采用先进的文字识别、数字化存储技术,大幅降低了录入与编辑的工作量。与 20 世纪 50 年代的 “手工录入” 模式相比,效率提升呈数量级增长。据语言学家 J. Edwards 1993 年统计,20 世纪 80 年代以来建成并投入使用的各类语料库超 50 个,涵盖英语、德语、法语、意大利语等十余种语言,规模从百万词级跃升至千万词级甚至亿词级。

  • 研究项目的 “井喷式增长”:语料库的繁荣直接推动了相关研究的爆发。1981-1991 年间,约有 480 个语料研究项目获得资助;而在 1959-1980 年的 20 余年间,仅 140 个项目获支持(丁信善,1998)。从机器翻译到情感分析,从语法研究到词汇语义挖掘,语料库成为 NLP 与语言学交叉研究的 “核心引擎”。

四、语料库的类型:多维视角下的分类体系

依据研究目的、语言数量、时间维度、加工程度等不同标准,语料库可划分为多个类型,每种类型都有其独特的应用场景与价值。

(一)通用语料库与专用语料库:“广度” 与 “深度” 的分野

  • 通用语料库:以 “平衡覆盖” 为核心目标,依据预设标准(如领域、地域、时间、语体)按比例收集文本,力求反映语言使用的整体面貌。例如:

    • Brown 语料库:要求文本数量与实际出版物的比例一致,且刻意剔除诗句(避免诗歌语言的特殊性干扰研究),成为研究美国书面英语的经典通用语料库。
    • LOB 语料库:面向英国英语,与 Brown 语料库形成 “英美书面英语对比” 的研究资源。

    通用语料库的价值在于提供 “全景式” 的语言图景,但也面临平衡性难题—— 如何定义 “平衡”、如何量化不同维度的权重,至今仍是语料库建设的核心挑战。

  • 专用语料库:为特定研究目的而建,聚焦某一领域、地区、时间或语体的语料。例如:

    • 新闻语料库(如路透社新闻语料库):用于研究新闻语言的风格、词汇演变;
    • 科技语料库(如计算机领域论文语料库):服务于专业术语挖掘、科技文本理解;
    • 中小学语料库:助力教育领域的语言习得研究。

    专用语料库的分析结果具有领域局限性—— 如基于 Brown 语料库(1961 年美国书面英语)的结论,无法直接迁移至英国口语或当代网络语言研究。此外,语言的 “动态性”(词汇的消亡与新生、词频的变化)会使专用语料库的代表性随时间衰减,在新闻、政治等变化剧烈的领域尤为明显。

(二)单语、双语与多语语料库:“语言数量” 的维度

  • 单语语料库:仅包含单一语言文本,是单语言研究的基础资源。例如 LDC 中文树库(CTB),专注于汉语的句法、语义研究。

  • 双语语料库多语语料库:包含两种或多种语言的文本,又可细分为 “平行语料库” 与 “比较语料库”:

    • 平行语料库:不同语言的文本互为译文,核心技术是语言单位的对齐(Alignment)—— 将篇章、段落、句子甚至短语、词汇在不同语言中对应起来。例如:

      • 加拿大议会议事录语料库:同时以英语、法语记录加拿大议会内容,是研究英法双语对应关系的经典平行语料库;
      • 中欧平行语料库:服务于中文与欧洲语言的机器翻译研究。平行语料库在机器翻译、双语词典编纂、跨语言信息检索等领域具有不可替代的价值。
    • 比较语料库:不同语言的文本无直接对译关系,但领域、主题相近,用于语言对比研究。例如 “国际英语语料库” 包含 20 个子语料库,分别来自英国、美国、加拿大、澳大利亚等英语国家,语料的选取时间、对象、比例、文本长度高度一致,为研究 “英语的地域变体” 提供了理想资源。

(三)共时语料库与历时语料库:“时间维度” 的考量

  • 共时语料库:聚焦某一 “时间切片” 的语言状态,用于共时语言学研究。例如:

    • 中文五地共时语料库:由香港城市大学开发,采集 1995-2005 年中国内地、香港、台湾、澳门及新加坡的报纸语料(每 4 天选取 1 天),涵盖社论、头版、国际版、特写、评论等内容,早期日采集量 2 万字,后期增至三四万字(邹嘉彦等,2003)。该语料库为研究 “同一时期汉语在不同地域的变体差异” 提供了珍贵资源。
  • 历时语料库:又称 “第三代语料库”,用于动态追踪语言的发展变化,具有两大鲜明特色:

    • 语料的动态性:持续补充新语料,以反映语言的实时演变;
    • 量化属性 “流通度”:通过测量词汇、语法结构的 “流通度”(使用频率、传播范围等),追踪其产生、成长与消亡的过程。例如,通过历时语料库可清晰看到 “互联网”“人工智能” 等词汇从诞生到普及的轨迹,也能观察到一些旧词(如 “电报”“寻呼机”)的衰落。

(四)生语料库与熟语料库:“加工程度” 的差异

  • 生语料库:未经任何人工或自动加工的原始语料数据,如同 “raw material”(原料)。例如,网络爬虫抓取的新闻文本、电子书库中的未标注小说等。

  • 熟语料库:经多层次加工(分词、词性标注、句法分析、语义标注等)并添加解释性语言学信息的语料库。加工过程是将 “原料” 转化为 “成品” 的关键:

    • 以汉语为例,一段经过分词与词性标注的文本为:“19980103-02-008-002/m 本报 /r 讯 / Ng 河北省 /ns 重点 /n 建设 /vn 项目 /n 石家庄 /ns 机场 /n 跑道 /n 延长 /vn 工程 /n ,/w 日前 /t 通过 /v 国家 /n 验收 /vn 委员会 /n 审验 /v ,/w 正式 /ad 投入 /v 使用 /v 。/w”其中 “/m”“/r”“/ns” 等标记分别代表 “时间标记”“代词”“地名” 等词性或语义类别。

    语料库加工与歧义消解存在 “互为基础” 的循环关系:高性能的歧义消解技术是语料库加工自动化的核心(如自动分词需解决 “一词多义、一义多词” 的歧义);而加工后的语料库又为歧义消解提供了标注数据支持(如通过大量标注好的分词实例训练分词模型)。加工层次越高,语料库能提供的语言学信息越丰富,但加工难度与成本也呈指数级增长。

    语料库的加工方式主要有三种:

    • 人工方式:语料质量极高,但成本昂贵,需投入大量人力(如早期 Brown 语料库的标注几乎完全依赖人工);
    • 自动方式:处理速度快、效率高,但结果准确性无法完全保证(如自动分词在处理歧义词时仍存在误差);
    • 半自动(人机结合)方式:结合前两者优势,分为 “先自动加工后人工校对”“计算机自动筛选需干预部分” 两种模式,是当前语料库加工的主流策略。

五、典型语料库实例:从经典到前沿的标杆探索

在语料库发展的历程中,一批具有开创性的语料库成为领域标杆,它们的建设背景、技术路径与学术贡献,折射出语料库研究的演进逻辑。

(一)Brown 语料库:通用语料库的 “开山之作”

由美国 Brown 大学于 20 世纪 60-70 年代开发,是面向美国书面英语的通用语料库,规模约 100 万词,完成了词法级标注。它的开创性在于:

  • 首次系统实践了 “平衡语料库” 的建设理念,将文本按体裁、主题等维度分类并控制比例;
  • 为后续通用语料库的建设树立了 “标注规范” 与 “质量控制” 的标杆;
  • 尽管使用需付费,但费用相对低廉,成为语言学研究与 NLP 教学的常用资源。

(二)Penn TreeBank:句法标注的 “黄金标准”

由美国宾夕法尼亚大学开发,对百万词次的英语语料(主要来源于《华尔街日报》)进行了全面的词性与句法标注,构建了大规模的 “句法树库”。其贡献在于:

  • 首次实现了句法结构的 “树状表示” 与大规模标注,为句法分析模型(如概率上下文无关文法)提供了训练与测试的 “黄金标准”;
  • 催生了一系列基于句法的 NLP 研究(如语义角色标注、机器翻译的句法调序);
  • 至今仍是句法分析领域论文的 “标配评测资源”。

(三)PropBank:语义角色标注的 “里程碑”

在 Penn TreeBank 的基础上,宾夕法尼亚大学进一步构建了 “命题库” PropBank,核心是对句法节点标注论元标记(Argument Label),以刻画语义角色。其特色在于:

  • 仅标注动词(非系动词),核心语义角色分为 Arg0~5(如 Arg0 表示 “施事”、Arg1 表示 “动作影响” 等),附加角色用 ArgM 表示(如 ArgM-LOC 表示 “地点”、ArgM-TMP 表示 “时间”);
  • 以动词 “buy” 为例,其语义框架中 Arg0 为 “购买者”、Arg1 为 “购买物”,清晰呈现了动词与论元的语义关联;
  • 为 “基于语义的机器理解” 提供了关键资源,推动了语义角色标注、事件抽取等技术的发展。

(四)FrameNet:框架语义的 “系统化实践”

由美国加州大学伯克利分校开发,以框架语义学为理论基础,描述谓词(动词、部分名词、形容词)的语义框架及框架间关系。其创新点在于:

  • 每个谓词对应一个 “语义框架”,框架包含 “框架元素”(如 “Body-Movement” 框架包含 Agent、BodyPart、Cause 等元素);
  • 标注谓词的语义角色、短语类型及句法功能,为 “深层语义理解” 提供了细粒度资源;
  • 2002 年发布以来,已成为语义学研究、机器翻译语义调序的重要支撑。

(五)LDC 中文树库(CTB):中文句法研究的 “核心资源”

由美国宾夕法尼亚大学开发、语言数据联盟(LDC)发布,语料来源于新华社、香港新闻等媒体。其发展历程体现了中文语料库的技术演进:

  • 2000 年第 3 版包含 10 万词汇、4000 多中文句子,主要完成词性与句法标注;
  • 目前已迭代至第 5 版,规模达 50.7 万词汇,新增语义标注、实体识别等层次,成为中文句法、语义研究与 NLP 模型训练的核心资源。

(六)北京大学语料库:中文分词与词性标注的 “标杆”

对 1998 年全年《人民日报》(2600 多万汉字)进行了分词与词性标注,工作周期为 1999 年 4 月 - 2002 年 4 月。它的价值在于:

  • 是国内首个大规模中文标注语料库,为中文 NLP 技术(如分词、词性标注)的研发提供了 “基准评测资源”;
  • 推动了中文 NLP 从 “算法创新” 到 “数据驱动” 的范式转变;
  • 至今仍是中文分词、词性标注领域论文的 “必测数据集”。

此外,还有一批特色语料库在细分领域发挥关键作用,如:

  • The Canadian Hansards 语料库:英法双语对照,是研究双语对应关系的经典平行语料库;
  • LC-STAR 语料:欧盟发起的多语言项目,涉及 12 种语言,汉语部分由 NOKIA(中国)与中科院自动化所承担,聚焦体育、新闻等 6 大领域的口语翻译;
  • C-STAR 口语语料:国际语音翻译联盟的项目,包含旅游领域约 16.2 万句的英日双语口语,德、中、韩、意等国分别开发了对应语言的翻译版本。

六、语料处理的基本问题:从 “原始文本” 到 “可用资源” 的鸿沟

人类语言的复杂性使文本自动处理充满挑战,原始文本需经预处理才能进入标注流程,而预处理过程中潜藏着诸多技术与理论难题。

(一)汉语预处理:自动分词的 “拦路虎”

西方语言(如英语)的词与词之间以空格分隔,天然具备 “分词” 边界;但汉语不实行 “按词连写”,词与词之间无显性分隔符,因此自动分词成为汉语 NLP 的首要难题。

汉语分词的难点源于:

  • 歧义现象:如 “乒乓球 / 拍卖 / 完了” 可切分为 “乒乓球 / 拍卖 / 完了”(乒乓球拍卖结束)或 “乒乓球拍 / 卖完了”(乒乓球拍售罄);
  • 未登录词:如网络新词、专业术语(“元宇宙”“ ChatGPT”),分词系统无先验知识;
  • 粒度争议:“北京大学” 可切分为 “北京 / 大学”(短语级)或 “北京大学”(词级),不同场景需求不同。

为解决这些难题,学界提出了 “基于词典的机械分词 + 统计语言模型”“深度学习分词模型” 等方法,同时依赖大规模标注语料库(如北京大学语料库)进行模型训练与评测。

(二)英语预处理:“空格≠词边界” 的认知颠覆

在英语中,“前后有空格的字符串即为一个词” 是一种误解,实际存在多种 “非词边界空格” 的情况:

1. 空格围起多个词
  • “词 + 标点” 形式:标点常紧跟词语(如 “etc.”“Calif.”),多数句点表示句子结束,但部分句点是缩写标记(如 “Prof.”“vs.”)。判定句点是否为句子边界需用 “排除法”:若前面是 “Prof”“vs” 等缩写词(通常不出现在句尾),或前面是 “etc”“Jr” 等缩写词且后面单词首字母小写,则该句点不表示句子边界。
  • “词 + 单撇号” 形式:如 “I’ll”“isn’t”,部分处理程序(如 Penn Tree Bank)将其切分为两个词(“I/’ll”“is/’nt”),否则会破坏传统句法规则(如 “S→NP VP” 遇到 “I’m” 时无法解析)。
  • 连字符连接的单词:连字符作用多样(如 “non-lawyer”“data-base”),且使用极不统一。通常将其视为 “一个词位” 处理,但需结合领域知识判断(如 “cooperate” 与 “co-operate” 语义等价)。
2. 空格不是分界标志

如电话号码(“9365 1873”)、多词地名(“New York”“San Francisco”),需将空格后的字符串视为 “整体词”。

3. 大小写问题

若两个词仅大小写不同(如 “the” 与 “The”),有时可视为同一词;但需保留专有名词的大写(如 “Richard Brown” 与 “brown paint” 中的 “Brown”)。一种启发式方法是:将句子开头的大写字母转小写,连续大写的词视为标题 / 副标题,其余大写字母忽略。但该方法存在缺陷(如人名出现在句首时无法识别),通常需借助 “人名列表”“地名列表” 等资源辅助判断,却无通用的简单方法(苑春法,2005)。

七、结语:语料库的未来 —— 从 “资源” 到 “生态” 的进化

语料库作为自然语言处理的基石资源,其发展始终与语言学研究、计算机技术进步深度绑定。从早期的 “文本集合” 到如今的 “多模态、多语言、动态化” 语料生态,语料库的形态与价值持续迭代:

  • 多模态拓展:未来语料库将融合文本、语音、图像、视频等多模态数据,支撑 “跨模态自然语言理解”;
  • 动态化建设:历时语料库的 “流通度” 属性将进一步强化,实时捕捉语言的演变轨迹;
  • 伦理与开源:语料库的获取成本与伦理争议将推动 “开源语料生态” 的发展,平衡资源可及性与研究公平性。

语料库的每一次突破,都为自然语言处理打开新的可能。它不仅是 “数据仓库”,更是连接语言学理论与 NLP 技术的 “桥梁”,其未来发展将持续定义自然语言处理的上限。

http://www.dtcms.com/a/596470.html

相关文章:

  • Rust: 量化策略回测与简易线程池构建、子线程执行观测
  • 基于systemd的系统负载控制与检测方案
  • 闲谈-三十而已
  • LangChain 是一个 **大语言模型(LLM)应用开发框架**
  • 从RAM/ROM到Redis:项目架构设计的存储智慧
  • 高中课程免费教学网站网页塔防游戏排行榜
  • Access导出带图表的 HTML 报表:技术实现详解
  • 郑州上海做网站的公司嘉兴网站建设有前途吗
  • 学习JavaScript进阶记录(二)
  • 优化用户体验的小点:乐观更新链路 双数据库查询
  • C++—list:list的使用及模拟实现
  • EasyExcel 与 Apache POI 版本冲突导致的 `NoSuchMethodError` 异常
  • WebServer04
  • 品牌网站建设技术网站搜索引擎优化诊断
  • 优秀企业网站设计WordPress评论楼层
  • 卡索(CASO)汽车调查:新能源时代如何精准度量用户体验?
  • 手动模拟Spring(简易版)
  • 蓝牙钥匙 第88次 蓝牙钥匙未来发展趋势篇:用户体验未来趋势深度解析
  • jmeter集群压测配置方法和注意事项
  • [笔记]SolidWorks转URDF 在rviz2中显示
  • 抖音商城店铺用户体验优化研究(开题报告)
  • 北京网站推广公司排名永久免费的cms系统带商城
  • STM32外设学习--USART串口协议--学习笔记。
  • 汉狮做网站公司郑州苏州建设网站的网络公司
  • 【C#-sqlSugar-sqlite】在Windows从源码编译构建System.Data.SQLite.dll的方法
  • 【WPF】WrapPanel的用法
  • wpf 控件中Margin属性如何设置绑定?
  • 【管综】考研199管理类联考真题试卷及答案解析PDF电子版(2009-2025年)
  • UDP/TCP接收/转发/广播服务端
  • WPF 获取鼠标相对于控件的坐标信息,控制控件锚点放缩