IMECH-IR  > 非线性力学国家重点实验室
使用机器学习识别圆柱尾迹中的湍流区域
杨子轩; 李秉霖
Source Publication第十一届全国流体力学学术会议论文摘要集
2020-12-03
Pages128
Conference Name第十一届全国流体力学学术会议
Conference Date2020-12-03
Conference Place中国广东深圳
Abstract探测湍流/非湍流界面是湍流研究中一个具有挑战性的课题。本文使用了机器学习方法训练探测器,用于识别圆柱绕流尾迹中的湍流区域。为保证所得到的湍流区域不依赖于坐标系的选取,我们提出了使用流动不变量作为探测器的输入变量,包括出现在脉动速度、脉动应变率张量、脉动涡张量的输运方程中的张量的不变量。训练所使用的数据为使用直接数值模拟/大涡模拟生成的Re=100和3900的圆柱绕流流场,使用的模型是Extreme Gradient Boosting(XGBoost),该方法属于监督学习方法,训练时需要给出流场对应的标签,即流动状态为湍流或非湍流,因此训练数据需选自流动状态已知的区域,例如湍流样本选自Re=3900的流动中远离湍流/非湍流界面的尾迹核心区域,非湍流样本则选自Re=3900的流动中的圆柱上游区域以及Re=100的流动中的圆柱尾迹区域。在训练完成之后,将流动中任意一点的不变量输入到探测器中,可以得到该点的流动状态,遍历全场即可得到流场中的湍流/非湍流界面。为了保证探测器结果的客观性,我们检验了训练过程中人为因素的影响,包括湍流样本的选取区域以及作为输入的不变量的个数。测试结果表明,扩大或缩小湍流样本的选取区域不影响湍流/非湍流界面的探测结果,增加作为输入的不变量的个数也不影响探测结果,从而保证了结果的客观性。和传统的湍流/非湍流界面的识别方法相比,客观性是机器学习方法的主要优势,具体体现在两个方面:1.传统方法需要人为指定输入变量的阈值作为区分湍流和非湍流的判据,而阈值的选取具有主观性,需要根据流动参数人为调整才能取得理想的识别效果,而机器学习方法不需要指定阈值,排除了这一人为因素的影响;2.传统方法通常只能选择一个或者两个变量作为输入量,而机器学习方法可以同时处理多个输入变量,从而反应湍流的不同特点,以本文的研究为例,输入的变量中对探测结果起决定性作用的不变量分别表征了湍流运动的非定常特性、涡拉伸现象、以及三维性等重要性质,并且不同的不变量具有不同的特征尺度,因此也反应了湍流的多尺度特性。
Keyword湍流识别 圆柱绕流 机器学习 流动不变量
Funding Organization基础科学研究中心项目“非线性力学的多尺度问题研究”,项目编号11988102
Language中文
Document Type会议论文
Identifierhttp://dspace.imech.ac.cn/handle/311007/85636
Collection非线性力学国家重点实验室
Affiliation中国科学院力学研究所非线性力学国家重点实验室
Recommended Citation
GB/T 7714
杨子轩,李秉霖. 使用机器学习识别圆柱尾迹中的湍流区域[C]第十一届全国流体力学学术会议论文摘要集,2020:128.
Files in This Item: Download All
File Name/Size DocType Version Access License
Cp2020045.pdf(804KB)会议论文 开放获取CC BY-NC-SAView Download
Related Services
Recommend this item
Bookmark
Usage statistics
Export to Endnote
Lanfanshu
Similar articles in Lanfanshu
[杨子轩]'s Articles
[李秉霖]'s Articles
Baidu academic
Similar articles in Baidu academic
[杨子轩]'s Articles
[李秉霖]'s Articles
Bing Scholar
Similar articles in Bing Scholar
[杨子轩]'s Articles
[李秉霖]'s Articles
Terms of Use
No data!
Social Bookmark/Share
File name: Cp2020045.pdf
Format: Adobe PDF
This file does not support browsing at this time
All comments (0)
No comment.
 

Items in the repository are protected by copyright, with all rights reserved, unless otherwise indicated.