“准确率o,”叶昀看着后台数据,“对于印刷体来说,这个基础模型的表现尚可。但我们需要把它提升到以上,而且还要处理手写体。”
下午,他们开始尝试手写古籍的标注。这次选的是一页明代文人手札,行草书,字迹潇洒但不易辨认。
情况立刻变得复杂。系统对很多字完全无法识别,候选列表空空如也。久久需要逐个手动输入。有些字连笔严重,她得仔细分辨笔画走向;有些字墨迹晕染,要结合上下文推测;还有些字用了异体写法,得翻查工具书确认。
一页手札,标注了整整四十分钟。
“累吗?”叶昀问。
“有点,”久久揉了揉眼睛,“但挺有意思的。感觉像在教一个特别聪明的孩子认字——它认得一些,但很多需要从头教。”
这个比喻让叶昀若有所思。他调出刚才标注的数据,开始分析错误类型:“你看,系统出错的地方有规律——连笔字、异体字、破损字。我们需要针对这些难点,收集更多样本,设计专门的识别策略。”
接下来的一周,久久每天抽出两小时进行标注工作。她渐渐掌握了技巧,度也快了起来。更重要的是,她开始理解人工智能的“学习方式”——它不是真的“理解”文字,而是通过大量样本,统计出字形和字义的对应关系。
“所以教它认字,和教人认字不一样,”一次标注间隙,她对叶昀说,“人看到一个陌生的字,会拆解笔画、分析结构、联想已知的字。但ai是看这个字的‘样子’和哪些字的‘样子’最像。”
“准确地说,是计算图像特征的相似度,”叶昀解释,“所以我们需要给它看足够多的‘样子’,包括同一个字的不同写法。你标注时,如果遇到异体字,记得在备注里说明这是哪种异体,出自哪个时期、哪种文献风格。这些元数据对模型学习很重要。”
小主,这个章节后面还有哦,请点击下一页继续阅读,后面更精彩!
于是久久的标注工作变得更加细致。她不仅标注文字本身,还会添加各种注释:
“‘寿’字草书写法,明代祝寿文书常见变体”
“‘云’字上部雨字头简写,清代民间抄本特征”
“‘马’字四点底连笔,书法作品风格”
这些专业的标注,逐渐构建起一个丰富的知识库。叶昀则利用这些数据,不断调整模型参数,增加针对性的训练模块。
两周后,他们进行了第一次小规模测试。使用久久标注过的五百页数据训练出的新模型,在同一批数据上进行测试,准确率提升到了。
“进步很明显,”李教授在周会上肯定道,“尤其是对异体字的识别,比之前提升了个百分点。林老师的专业标注功不可没。”
但问题也随之暴露。在新数据的测试中,模型表现不稳定——对久久标注过的字体风格识别率很高,但对未见过的新风格,准确率又掉回了o左右。
“这就是机器学习中的‘过拟合’问题,”叶昀分析,“模型太适应训练数据的特征,泛化能力不足。我们需要更多样化的数据。”
这意味着需要标注更多不同时期、不同风格、不同保存状态的古籍样本。工作量几乎要翻倍。
久久看着长长的任务列表,深吸一口气:“我可以增加标注时间。但有些特别生僻的字,或者保存状况极差的,可能需要查阅大量资料才能确定。”
“那就查,”叶昀说,“你的查阅过程,本身就是一种知识积累。我们可以把这些查阅记录也纳入数据库,构建一个古籍文字的‘知识图谱’。”
这个想法很大胆。传统的古籍研究,知识都分散在不同专家的脑子里、不同的论文和专着里。如果能系统化地整理出来,对学界将是巨大的贡献。
从那天起,久久的标注工作不再仅仅是“教ai认字”,更像是在建设一个庞大的古文字知识体系。每遇到一个疑难字,她不仅会标注它是什么字,还会记录:这个字在哪些文献中出现过,有哪些变体,不同时期的变化规律是什么,在什么语境下使用……
这些记录逐渐累积,形成了一份珍贵的学术资料。有时叶昀看着那些详细的备注,会忍不住说:“这些内容,足够写几篇论文了。”
“也许等项目结束,真的可以整理出来,”久久微笑,“让更多研究者受益。”
项目进行到第二个月,叶昀和久久的合作模式已经高度默契。他们开了一套高效的远程协作流程:
每天早上,久久会收到系统自动分配的标注任务,通常是五十页古籍扫描图。她会在上午完成修复工作后,花两小时进行标注。标注时遇到的疑难问题,她会记录下来。
下午,叶昀处理这些标注数据,更新模型。他会特别关注久久标记的难点,分析错误类型,调整算法。
晚上七点,两人会进行十五分钟的线上同步。叶昀展示当天的模型改进效果,久久反馈标注中的观察和问题。没有多余的寒暄,直接切入专业讨论,效率极高。
有一次,顾璟路过书房,听到久久正在视频通话中快说着:“……‘龙’字的繁体写法,在明代官方文书中,右半部分常写作‘尨’,但在民间抄本中多写作‘竜’。系统现在把‘竜’都识别为‘竜’本身,没有关联到‘龙’字。需要增加异体字映射关系。”
屏幕那头的叶昀手指在键盘上飞舞:“收到。已记录,今晚更新映射表。另外,你昨天标注的那批破损字,我分析了破损模式,增加了抗干扰模块,准确率提升了。”
“好,我明天校验效果。”
通话结束,整个过程十二分钟。顾璟站在门口,有些惊讶于这种高效。他想起团队其他成员的合作模式——夏飞的热闹、白辰的温和、肖逸的安静、蒋烁的直率、苏沐的细腻,每种都有温度。而叶昀和久久的合作,是纯粹的理性与专业的结合,像两台精密仪器在对接数据,却同样动人。
一天晚上,项目组突然遇到了一个棘手的问题。模型在对一批敦煌遗书残卷进行识别时,准确率骤降到o以下。这批遗书年代久远,纸张脆化严重,墨迹褪色,还有很多西域文字的混入,难度极大。
李教授紧急召集线上会议:“这批敦煌材料很珍贵,数字化整理迫在眉睫。但现在的识别效果不理想,人工校对工作量太大。叶老师、林老师,有没有什么思路?”
视频窗口中,叶昀和久久同时陷入思考。几秒后,叶昀先开口:“我需要分析具体的错误类型。久久,你看过这批材料吗?”
久久点头:“修复中心三年前修复过一批敦煌遗书,我参与过。这类文献有几个特点:第一,纸张是麻纸或皮纸,纹理粗糙,扫描图像噪点多;第二,墨色淡,笔画边缘模糊;第三,有大量俗字、异体字,还有汉字与吐蕃文、回鹘文混写的情况。”
小主,这个章节后面还有哦,请点击下一页继续阅读,后面更精彩!
她的描述专业而清晰。叶昀一边记录一边问:“混写文字的比例大概多少?混写模式有规律吗?”
“大概三成左右有混写,”久久回忆,“混写模式……通常是专有名词、地名、人名用音译文字,正文用汉字。但也不绝对,有些部分是整段混写。”
“那我们需要一个多文字识别模块,”叶昀迅构思,“先分割文字区域,判断文字类型,再分别调用对应的识别模型。汉字部分用我们现有的模型,吐蕃文和回鹘文需要另建模型,但这需要相关语种的专家支持。”
李教授皱眉:“吐蕃文和回鹘文的专家不好找,而且时间紧迫……”
这时久久轻声说:“也许……不需要完全识别那些文字。”
所有人都看向她。
“敦煌遗书的研究,重点是内容的价值,”久久解释,“那些混写的西域文字,很多是音译,对应的是特定的汉字词汇。如果我们的目标是整理文献内容,而不是做文字学研究,也许可以换一种思路——把这些混写文字当作‘特殊符号’处理,标记出它们的位置和类型,留给专家后期处理。重点是确保汉字部分的识别准确率。”