第95章 该说谢谢的是我们
如遇到章节错误,请关闭浏览器的阅读/畅读/小说模式并且关闭广告屏蔽过滤功能,稍后尝试刷新。
如何处理这种“破损的对称性”,是理论落地必须要解决的问题。
肖宿几乎不假思索:“用群的正则表示分解。离散对称可以嵌入到连续群的子群中,近似对称可以通过定义鬆弛的等变约束来处理。具体实现时,我们设计了一个可微的对称性度量函数,允许小幅度偏离理想对称。”
他调出了一页ppt,上面是那个度量函数的数学定义和几个实验曲线。
姚院士仔细看了几秒,缓缓点头:“很优雅的解决方案。谢谢。”
坐下时,他轻声对博士生说:“记下来,这个度量函数的设计,我们组可以借鑑。”
第二个提问的是钱卫华院士。
他问题更偏工程一些:“肖宿同学,从算法复杂度分析,你的框架在理论上是o(n log n)级別的。但实际实现中,特別是大规模分布式计算时,通信开销会成为瓶颈。有没有考虑过针对超算架构的优化?”
这个问题问得相当专业,直接戳中了大规模ai训练的核心痛点。
我们现在的 ai 之所以强调大数据、大模型,本质上就是靠计算量和数据量来得到精確的答案。
再理想的框架,如果算力跟不上,也达不到想要的效果,一切白搭。
肖宿点点头,这个人提的问题还是比较关键的。
“这个问题之前已经考虑过。群论框架的特徵空间具有局部性,天然就適合数据並行。我们正在设计一种分层聚合算法,可以在保证精度的前提下,將通信量减少到传统方法的百分之三十左右。论文在投,预印本已经掛在arxiv上。”
钱卫华眼睛一亮:“arxiv编號多少?我回去马上看。”
“2309.xxxxx。”肖宿报出一串数字。
钱院士迅速记下,满意地坐下。
接下来又问了几个问题,有京大的教授,有外校的研究员,问题质量都很高。
肖宿回答简洁但精准,没有一句废话。
偶尔遇到特別基础的问题,他会直接说“这是群表示论的基础知识,可以翻教科书”,一点不留情面。
几个想浑水摸鱼刷存在感的记者,提的问题被也肖宿直接无视了。
两点五十五分,顾清尘作为主持人站起身。
“时间差不多了,最后一个问题。”
一个华清大学的博士生抢到了机会,问了个关於周氏猜想证明细节的问题。
肖宿用三分钟解释清楚,然后看向台下。
“还有问题吗?”
台下安静极了。
不是没有问题,而是问题太多了。
大多数人连今天写的笔记都还需要时间消化。
很多问题还需要回去仔细研读论文,甚至需要补充基础知识,才能问得出来。
“那今天就这样。”
肖宿关掉ppt,拔下u盘,背起书包,转身走下了讲台。
台下愣了两秒,然后爆发出热烈的掌声。
掌声持续了很久,有人站起来鼓掌,甚至有人吹了声口哨。
肖宿已经走到侧门,顾清尘追上去,低声说了句什么。
肖宿摇摇头,径直离开了讲堂。
讲堂里,人群却没有立刻散去。
教授们借著这个机会围在一起討论刚才的內容,学生则三五成群兴奋地交流著听后感。
“我宣布,从今天起肖神就是我的人生偶像!”
“虽然只听懂了百分之三十,但就这百分之三十,已经够我消化一个月了。”
“你们看到姚院士和钱院士的表情了吗?那种『后生可畏』的震撼,太真实了。”
“我比较好奇肖神现在在干嘛。回实验室敲代码?还是又去图书馆看书了?”
“我赌五毛钱,他在改『小智』的bug。”
“加注一块,他在思考下一个数学难题。”
姚毅智院士和钱卫华院士在门口相遇。
两位大佬相视一笑。
“老姚,感觉如何?”钱卫华问。
姚毅智推了推眼镜,感慨道:
“长江后浪推前浪啊。那套群论框架,给我们组至少指了三个新方向。我得赶紧回去开组会。”
“我也一样。”钱卫华点头,“他那篇预印本,我估计能解决我们超算上一个困扰很久的通信瓶颈。这孩子……脑子里装的都是宝藏。”
两人又聊了几句,各自带著团队离开。
陈景明和江明远站在讲台边,看著渐渐散去的人群,脸上是压不住的笑容。
“陈院长,咱们这次……”江明远搓著手,“办得太成功了!我刚收到消息,至少五所大学想邀请肖宿去访问交流,国外也有三所。”
陈景明点点头,但语气认真:
“这些邀请先压一压,別打扰那孩子。他现在最需要的是安静的环境,继续做他的研究。至於交流……等他准备好再说。”
“明白明白。”
江明远连连点头,“哦,对了,那一百二十万奖金,已经打到肖宿妈妈帐户上了,他妈妈还说谢谢学校……。”
陈景明沉默了一会儿,轻声说:“该说谢谢的是我们。”
本章未完,点击下一页继续阅读。