徐迎庆 教授

终身学习实验室主任


联系方式

邮箱:yqxu@tsinghua.edu.cn

个人简介

徐迎庆博士是清华大学长聘教授,任职于清华大学美术学院和清华大学未来实验室,他是教育部“长江学者奖励计划”特聘教授(2013.12-2018.12);目前担任清华大学未来实验室主任,曾担任清华大学美术学院信息艺术设计系主任(2012.3-2019.12)。加入清华大学之前,他在微软亚洲研究院担任主管研究员,兼任微软-北京电影学院“数字化卡通与动漫联合实验室”的联合主任。

他在用户体验设计、未来教育、沉浸感知与交互设计、触觉认知与交互设计、文化遗产的数字化、以及自然用户界面设计等研究领域开展教学和科研;曾获得清华大学先进工作者、清华教书育人先进个人等称号,多次获得清华大学以及清华大学美术学院的优秀硕士、博士论文指导教师。他在国际会议和学术期刊上发表近百篇学术论文和专利(谷歌学术2020年6月数据:论文单篇最高引用率939次);有多项研究成果被应用于实际产品之中。他曾负责或参加了包括国家重点基础研究发展计划、国家重点研发计划、国家863计划课题、国家自然科学基金等在内的多项国家科研课题。还参与了多项文化创意产业领域的研究和设计工作, 如: 杭州G20灯光展示设计、数字故宫展馆设计、故宫《走近清明上河图》沉浸式多媒体音画展示系统设计、敦煌文化遗产数字化等。他努力探索基于学科交叉的设计创新理论与方法,并做出了积极的努力,例如:他带领团队为盲人用户设计并开发了具有国际领先水平的触觉交互计算机,其大幅面触觉图形显示终端表面由可以凸起和收回的点阵组成。通过控制这些点阵的变化,可以把传统的图片变成可以触摸的图形。盲人用户通过触摸这些凸起点阵所组成的盲文或触觉图形来阅读文字和认知图片。此外,他带领团队构建嗅觉检测及交互应用平台、人类日常情感和行为理解计算平台、人类情感交流数据库、面向终身学习的智能硬件、面向智慧农业的果蔬味道数据库等。从2018年3月至今,他担任2022北京冬奥会技术应用创意概念设计团队负责人,以及2022冬奥会概念性创意设计方案研究课题负责人。该课题团队提出了一系列面向科技冬奥的创新设计应用建议,其中多项建议被相关部门采纳并立项实施。

他曾服务于多个国际学术会议,分别担任会议联合主席/程序委员会主席或委员等, 曾多次应邀发表大会主题报告和演讲。他是中国计算机学会会士、中国美术家协会会员、美国计算机协会(ACM)会员,以及国际电器电子工程师协会(IEEE)高级会员。他在中国科学院计算技术研究所获得工学博士学位;在吉林大学数学系获得理学学士学位。

徐迎庆出生在北京,曾经在北京市光华路第一小学和北京市日坛中学学习。上中学的时候,一直在北京市少年宫科技小组的航模组、舰模组参加课外活动,期间大部分的周末都是在北京市少年宫科技小组度过的;至今喜欢模型设计和搭建。

 

部分参展设计作品

·  基于数字化嗅觉的新媒体艺术作品TriNose (路奇、高家思、贾艳红、彭宇、徐迎庆) ;第22届米兰国际三年展 (2019);

·  文化遗产的数字化保护的方法验证与典型示范(鲁晓波、徐迎庆、吴琼等);清华大学美术学院艺术作品展 (2016);

·  智能自行车设计(徐迎庆、张雷、米海鹏等);奥地利林茨电子艺术节 (2016);

·  意生态(徐迎庆、敖梦星、邓岩、陈刚、梁潇、马歆、黄郁驰等);第三届艺术与科学国际作品展 (2012)。

 

部分获奖

·  Honorable Mention Award of ACM conference on Designing Interactive Systems 2020

DIS 2020,Qi Lu, Wan Liang, Hao Wu, Kaixin Huang, Haipeng Mi, and Ying-Qing Xu

·  文化遗产法海寺壁画的色彩数字化研究,获得《装饰》杂志优秀论文

2019, 张亚丽、徐迎庆、韩振刚

·  The Best Video Award of Asia Haptics 2018

Yang Jiao, Xiaobo Lu, Ying-Qing Xu

·  Nicolas D. Georganas Best Paper Award of ACM Transactions on Multimedia Computing, Communications, & Applications

2017, Xuyong Yang, Tao Mei, Ying-Qing Xu, Yong Rui, Shipeng Li

·  由于对计算机图形学研究的贡献获得2012年中国计算机图形学大会杰出奖

·  多次获得最佳论文奖

 

部分学术服务

·  清华大学-阿里巴巴自然交互体验联合实验室主任(与阿里巴巴达摩院合作)

·  清华大学终身学习实验室主任(与丹麦乐高基金会合作)

·  清华大学未来实验室文化创意设计研究中心主任(与中天昊业集团合作)

·  浙江大学“CAD&CG国家重点实验室”专家委员会委员

·  新华通讯社“媒体融合生产技术与系统国家重点实验室”学术委员会委员

·  联合国教科文组织“国际创意与可持续发展中心”咨询委员会委员

·  中国工业设计学会“信息与交互设计专业委员会”常务副主任

·  北京服装学院“数字与交互媒体北京市重点实验室学术委员会”副主任

·  北京邮电大学“移动媒体与文化计算北京市重点实验室学术委员会”副主任

·  中国计算机学会“人机交互专业委员会”委员

·  中国美术家协会“动漫艺术委员会”委员

·  中国“高校创新创业教育研究中心学术委员会”委员

 

在站博士后

1.  郝强,法国蒙彼利埃第三大学博士 (戏剧舞台及电影艺术)

博士后研究方向:多通道沉浸式交互设计。

2. 高峰,北京大学博士 (计算机应用)

博士后研究方向: 基于人工智能的艺术设计。

3. 姜梦茵,英国牛津大学博士 (实验心理学)

博士后研究方向:多模态感知自我信息加工研究。

4. 杨佳伟,清华大学博士 (物理化学)

博士后研究方向:嗅觉检测与分析计算研究。

5. 王濛,清华大学博士 (实体交互设计)

博士后研究方向:基于实体交互的智能编程环境研究。

6. 付心仪,清华大学博士(信息艺术设计)

博士后研究方向:人类情感理解与计算。

7. 刘岗,清华大学博士 (工业设计)

博士后研究方向:信息艺术设计。

8. 梁东雪,韩国中央大学博士 (CG/VR)

博士后研究方向:智慧医疗。

9. 刘洁,清华大学博士 (建筑学)

博士后研究方向:人屋交互设计。

指导研究生信息

博士研究生

1.   胡佳雄;在读博士生;(清华大学硕士)

研究方向:声音情感信息识别与计算;

2.   彭瑞文;在读博士生;(牛津大学硕士)

研究方向:面向未来教育的设计研究;

3.   翁称誉;在读博士生;(中欧国际工商学院MBA)

研究方向:VR&AR与未来教育;

4.   贾艳红;在读博士生;(北京工业大学硕士)

研究方向:面向增材制造的几何设计研究;

5.   高家思:在读博士生;(清华大学硕士)

研究方向:智能玩具设计研究;

6.   李芝;中国传媒大学在读博士生;(北京服装学院硕士)

研究方向:科幻动画作品中的美学研究;

7.   李萌;中国传媒大学在读博士生;(北京电影学院硕士)

研究方向:交互动画设计研究;

8.   师丹青;2020年博士毕业;(美国罗德岛设计学院硕士)

毕业论文:《基于格式塔理论的新媒体叙事空间弹性设计研究》;

现任清华大学美术学院副教授、清华美院信息艺术设计系副主任

9.   路奇;2020年清华大学博士毕业;(清华大学硕士)

毕业论文:《基于气味识别与采集的嗅觉界面设计方法研究》;

推荐北京市优秀博士毕业生

拟入职清华大学博士后

10. 徐千尧;2020年清华大学博士毕业;(中国人民大学硕士)

毕业论文:《移动终端界面智能设计理论与方法研究》;(清华大学优秀博士论文);

拟入职清华大学博士后

11. 图拉;2020年清华大学博士毕业;(清华大学硕士)

毕业论文:《沉浸式媒介叙事研究》;

拟任职高校

12. 郭子淳;2020年中国传媒大学博士毕业;(中国传媒大学硕士)

毕业论文:《基于电子游戏的具身交互叙事设计研究》;

拟任职高校

13. 王濛;2019年清华大学博士毕业;(清华大学硕士)

毕业论文:《模块化实物用户界面研究》;(清华大学优秀博士论文) ;

现任清华大学博士后

14. 龚江涛;2018年清华大学博士毕业;(清华大学硕士)

毕业论文:《面向盲人触觉信息阅读的用户体验研究》(北京市优秀博士毕业生);

现任联想研究院博士后

15. 付心仪;2018年清华大学博士毕业;(清华大学硕士)

毕业论文:《壁画类文化遗产的数字化复原研究——以敦煌壁画为例》;

现任清华大学博士后

16. 鲁艺;2018年清华大学博士毕业;(香港理工大学硕士)

毕业论文:《基于实体交互的学龄前儿童玩具设计研究》;

现任北京工业大学艺术设计学院院长助理

17. 焦阳;2017年清华大学博士毕业;(英国南安普顿大学硕士)

毕业论文:《盲人触觉认知与交互体验研究-以触觉图形显示器为例》(清华大学优秀博士论文)

2019年清华大学博士后出站

博士后出站报告:《触觉及实体交互设计研究与实践》;

现任清华大学未来实验室助理研究员

18. 张亚丽;2018年中国传媒大学博士毕业;

毕业论文:《文化遗产数字化中的动画传播研究——以法海寺壁画色彩数字化为例》;

现任首都师范大学美术学院教授

19. 马晓娜;2017年中国传媒大学博士毕业;

毕业论文:《动画的区域文化视域研究》;

2019年清华大学博士后出站;

博士后出站报告:《基于交互方式创新的学龄前儿童情商教育方案设计研究》;

现任北京航空航天大学新媒体艺术与设计学院助理教授

20. 靳晶;2016年中国传媒大学博士毕业;

毕业论文:《沉浸式全景电影叙事及镜头语言研究》;

现任北京林业大学艺术设计学院副教授

21. 乔凤天;2012年中国传媒大学博士毕业;

毕业论文:《动画原创力的研究》;

现任首都师范大学教育学院讲师

 

硕士研究生

22. 孙喆;交叉学科2019级硕士生在读;

研究方向:基于人工智能的多媒体设计研究

23. 席雪宁;交叉学科2019级硕士生在读;

研究方向:基于人工智能的交互搜索设计研究

24. 黄伟祥;2019级硕士生在读;

研究方向:智能机器人设计研究

25. 林汝婷;2019级硕士生在读;

研究方向:叙事型信息交互设计研究

26. 杜渊杰;交叉学科2018级硕士生在读;

研究方向:基于机器学习的中国传统纹样设计研究

27. 黄凯欣;2018级硕士研究生在读;

研究方向:面向智能家居的设计创新研究

28. 梁婉;交叉学科2018级硕士生在读;

研究方向:社交活动中的物理距离与心理距离

29. 吴昊;2018级硕士生在读;

研究方向:情感认知设计研究

30. 钟维康;2020年毕业;

研究方向:手势交互游戏设计研究

31. 周雪怡;交叉学科2020年毕业;

研究方向:沉浸式新闻数据可视化交互设计研究

32. 张锦文;交叉学科2020年毕业;

研究方向:非线性互动叙事设计研究

33. 杜庆钰;2020年毕业;

研究方向:物质文化遗产的数字化展示设计研究

34. 孙浩;交叉学科2019年毕业;

研究方向:基于超声波触觉反馈的交互游戏设计研究

35. 胡佳雄;交叉学科2019年毕业;

研究方向:基于情感计算的语音交互界面设计

36. 黃耘漢;2018年毕业;

研究方向:虚拟现实中的用户视觉界面与交互设计

37. 高家思;交叉学科2018年毕业;

研究方向:面向儿童的实体编程工具设计研究

38. 田一博;交叉学科2018年毕业;

研究方向:面向儿童的交互式智能教具设计研究

39. 李佳炜;交叉学科2018年毕业;

研究方向:虚拟现实设备的触觉反馈设计研究

40. 蒙超;交叉学科2018年毕业;

研究方向:针对视障人群的触觉图像交互装置设计与研究

41. 李河姃;2017年毕业;(韩国留学生)

研究方向:中韩传统服饰设计文化比较研究

42. 吴长华;2017年毕业;

研究方向:电动车分时租赁APP的交互设计研究

43. 路奇;交叉学科2017年毕业;

研究方向:基于实体交互的虚拟考古体验平台设计研究

44. 韩奕;交叉学科2017年毕业;

研究方向:敦煌壁画数字化复原及其互动体验设计研究

45. 陈彦婷;交叉学科2017年毕业;

研究方向:公共空间里的语音互动广告研究

46. 王颖琪;2017年毕业;

研究方向:新媒体装置艺术中的情感设计研究

47. 阿丽玛;交叉学科2017年毕业;

研究方向:基于增强现实的蒙古语虚拟语伴交互设计研究

48.  孙世华;交叉学科2016年毕业;

研究方向:数字化美妆设计研究

49. 史清源;交叉学科2016年毕业;

研究方向:中国书画长卷交互装置设计研究

50. 王超;交叉学科2016年毕业;

研究方向:面向智能自行车的信息与交互设计研究

51. 陆志聪;交叉学科2015年毕业;

研究方向:家庭食物智能监控系统设计研究

52. 魏文;交叉学科2015年毕业;

研究方向:交互式敦煌壁画数字化复原研究

53. 敖梦星;交叉学科2015年毕业;

研究方向:基于灯彩的灯光交互设计研究

54. 于阳;交叉学科2015年毕业;

研究方向:虚实结合的互动游戏设计研究

55. 龙慧灵;交叉学科2014年毕业;

研究方向:糖尿病监测产品交互系统设计研究

56. 赵月;交叉学科2014年毕业;

研究方向:互动体验广告设计研究

57. 郝忆南;交叉学科2014年毕业;研究方向:

基于移动终端的数字化教育用户研究

58. 唐瀚;交叉学科2013年毕业;

研究方向:信息可视化设计研究

59. 崔韬;交叉学科2013年毕业;

研究方向:虚实结合的互动游戏设计研究

60. 徐海阔;交叉学科2013年毕业;

研究方向:社会化视频网站设计研究

61. 此外,在微软亚洲研究院工作期间,作为Mentor指导实习生约50余人。

 

部分学术论文

01. 付心仪、徐迎庆。基于BGRU-FUS-NN神经网络的姿态情感计算方法研究。计算机辅助设计与图形学学报,学科交叉与设计创新专刊,待发表

02. 徐千尧、徐迎庆。智能手机动效设计及其人机自然交互研究。计算机辅助设计与图形学学报,学科交叉与设计创新专刊,待发表

03. 郝强、付心仪、徐迎庆。信息时代背景下的新兴大众化设计。装饰,待发表。

04. Xinyi Fu, Yaxin Zhu, Zhijing Xiao, Ying-Qing Xu, and Xiaojuan Ma. 2020. RestoreVR: Generating Embodied Knowledge and Situated Experience of Dunhuang Mural Conservation via Interactive Virtual Reality. In Proceedings of the 2020 CHI Conference on Human Factors in Computing Systems (CHI ’20). Association for Computing Machinery, New York, NY, USA, 1–13. DOI:https://doi.org/10.1145/3313831.3376673

05. Qi Lu, Wan Liang, Hao Wu, Kaixin Huang, Haipeng Mi, and Ying-Qing Xu. Exploring Potential Scearios and Design through A Camera-like Physical Odor Capture Prototype.  ACM conference on Designing Interactive Systems 2020 (DIS 2020). Honorable Mention Award (5% of the submissions)

06. Y Jiao, Y-Q Xu, X Lu. Affective Haptics Research and Interaction Design.International Conference on Human-Computer Interaction. Springer, Cham, 2019: 134-143.

07. Qi Lu, Shao-en Ma, Jiayin Li, Haipeng Mi, Ying-Qing Xu (通讯作者). IRelics: Designing a Tangible Interaction Platform. TEI ’19: Thirteenth International Conference on Tangible, Embedded, and Embodied Interaction. 2019.03, Arizona, USA

08. 张亚丽、徐迎庆、韩振刚。文化遗产法海寺壁画的色彩数字化研究。《装饰》2019年第03期(2019年度优秀论文)

09. 马晓娜、图拉、徐迎庆 (通讯作者). 非物质文化遗产数字化发展现状. SCIENTIA SINICA Information. 2019.03

10. 师丹青、王之纲、徐迎庆、付志勇。信息艺术设计:在艺术和科学融合的 “临界点”上。《装饰》2019(09):50-54.

11. Mengxing Ao, Ying-Qing Xu. Epistemic Ecology: An Artwork of Gigapixel Imagery and Ideas. Leonardo. Volume 52, Issue 2, April 2019. p.175-176

12. Yang Jiao, Xiaobo Lu, Y-Q Xu. A Graphical Tactile Display for the Visually Impaired. Proceedings of Asia Haptics 2018. (The Best Video Award) Seoul, Korea, 2018.11

13. 焦阳、张虹、徐迎庆、鲁晓波。基于情感的触觉研究及交互设计. 第十四届和谐人机环境联合会议(HHME2018). 天津, 2018.09

14. 米海鹏、王濛、卢秋宇、徐迎庆 (通讯作者)。实物用户界面: 起源、发展与研究趋势. 中国科学: 信息科学 48, 390 (2018 ); doi: 10.1360/N112017-00227.

15. 龚江涛、於文苑、曲同、刘烨、傅小兰、徐迎庆。影响触觉图像识别因素的量化分析. 计算机辅助设计与图形学学报 (Journal of Computer-Aided Design & Computer Graphics).

16. Meng Wang, Haipeng Mi, Yejun Liu, Ying-Qing Xu. POLYHINGE: SHAPE CHANGING TUI ON TABLETOP. 11th International Conference on Interfaces and Human Computer Interaction. 21 – 23 July 2017 Lisbon, Portugal

17. Meng Wang, Kehua Lei, Zhichun Li, Haipeng Mi, Ying-Qing Xu. TwistBlocks:Pluggable and Twistable Modular TUI for Armature Interaction in 3D Design. TEI 2018, March 2018, Sweden

18. Jiangtao Gong, Yin Shi, Jue Wang, Danqing Shi, Ying-Qing Xu. (2018). Escape from the Dark Jungle: A 3D Audio Game for Emotion Regulation. DOI:10.1007/978-3-319-91584-5_5.收录于:《虚拟、增强和混合现实》Virtual, Augmented and Mixed Reality: Applications in Health Cultural Heritage, and Industry. Pp.57-76

19. Wei Ma, Qiuyuan Wang, Danqing Shi, Shuo Liu, Congxin Cheng, Qingyuan Shi, Qiong Li, Tong Li, Ying-Qing, Xu. Walking into ancient paintings with virtual candles. Proceedings of the 24th ACM Symposium on Virtual Reality Software and Technology. November 2018 Article No.: 135 Pages 1–2。美国计算机学会第 24 届虚拟现实软件和技术会议论

20. X. Y. Fu, Y. Han, Z. J. Sun, X. J. Ma, Y-Q. Xu. LINE-DRAWING ENHANCED INTERACTIVE MURAL RESTORATION FOR DUNHUANG MOGAO GROTTOES. ISPRS Annals of the Photogrammetry, Remote Sensing and Spatial Information Sciences, Volume IV-2/W2, 2017. The 26th International CIPA Symposium 2017, 28 August–01 September 2017, Ottawa, Canada

21. Guanbin Li, Sai Bi, Jue Wang, Y-Q Xu, Yizhou Yu. ColorSketch: A Drawing Assistant for Generating Color Sketches from Photos. IEEE Computer Graphics and Applications 38(3):70-81 · May 2017

22. 付心仪、刘世霞、徐迎庆。信息可视化的发展与思考. 《装饰》杂志. 2017.4

23. Xuyong Yang, Tao Mei, Ying-Qing Xu, Yong Rui, Shipeng Li. Automatic Generation of Visual-Textual Presentation Layout. ACM Transactions on Multimedia Computing, Communications, and Applications (TOMM), Volume 12 Issue 2, March 2016 Article No. 33 (ACM Transactions on Multimedia Computing, Communications, and Applications. Nicolas D. Georganas Best Paper Award 2017)

24. 焦阳、龚江涛、徐迎庆。盲人触觉图像显示器Graile设计研究[J]. 装饰, 2016 (1): 94-96.

25. 焦阳、龚江涛、史元春、徐迎庆. 盲人触觉图形显示器的交互体验研究。计算机辅助设计与图形学学报 28.9 (2016): 1571-1576.

26. 焦阳、龚江涛、鲁晓波、史元春、徐迎庆。盲人触觉交互的演进及未来趋势分析。中国计算机学会通讯, 2016.12 第三期

27. Y. Wu, T. Mei, Y-Q Xu, N. Yu, and S. Li. MoVieUp: Automatic Mobile Video Mashup. Accepted by IEEE Transactions on  Circuits and Systems for Video Technology, 2015

28. 龚江涛、谭斯瑞、徐迎庆。面向儿童的交互创作系统PaperJeemo设计研究,《装饰》2015年第6期21-27

29. C. Wang, Y. Su, J. Tao, M. Wang, Y. Jiao, S. Sun, X. Huang, K. Fang, Y. Wang, J. Gu, S. Yan, L. Zhang, H. Mi, Y-Q. Xu and K. Yu. DUBIKE: AN INTERACTIVE SMART BIKE. Chinese CHI 2015 Design Special Track. 2015

30. M. Ao, Y-Q. Xu et al. EPISTEMIC ECOLOGY: AN ARTWORK OF GIGAPIXEL IMAGE. Chinese CHI 2015 Design Special Track. 2015

31. Y. Zhao, X. Jin, Y-Q. Xu, H. Zhao, A. Meng, K. Zhou. Parallel Style-aware Image Cloning for Artworks. Accepted by Transactions on Visualization and Computer Graphics 2014.

32. J. Sang, T. Mei, Y-Q. Xu, C. Zhao, C. Xu, S. Li. Interaction Design for Mobile Visual Search. ACM TRANSACTIONS ON MULTIMEDIA. Vol.3(1) 2013

33. H. Chen, H. Tang, Z. Wang, P. Cui, Y-Q. Xu, S. Yang. EventLens: An Automatic Magazine Generating System for Social Media. International Conference on Human-Computer Interaction (HCII 2013)

34. L. Lin, K. Zeng, Y. Wang, Y-Q. Xu, S. Zhu. Video Stylization: Painterly Rendering and Optimization with Content Extraction. IEEE TRANSACTIONS ON CIRCUITS AND SYSTEMS FOR VIDEO TECHNOLOGY, VOL. 23, NO. 4, APRIL 2013.

35. W. Ma, Y. Wang, Y-Q. Xu, Q. Li, W. Gao. Annotating Traditional Chinese Paintings For Immersive Virtual Exhibition. ACM Journal on Computing and Cultural Heritage, Vol5 (2):6 2012. (ACM Notable Paper 2012)

36. W. Luo, Z. Lu, X. Wang, Y-Q. XU, M. Ben-Ezra, X. Tang. Synthesizing Oil Painting Surface Geometry From A Single Photograph. Computer Vision and Pattern Recognition. Page (885-892), 2012

37. W. Zhao, J. Chai, Y-Q. Xu. Combining Marker-based Mocap and RGB-D Camera For Acquiring High-fidelity Hand Motion Data. International Symposium on Computer Animation 2012,Page:33-42

38. J Zhuang, T Mei, S C. H. Choi, Y-Q Xu, S Li. “When Recommendation Meets Mobile: Contextual and Personalized Recommendation On The Go,” ACM International Conference on Ubiquitous Computing (UBICOMP), Beijing, China, pp. 153-162, Sept. 2011.

39. B. Wang, Y. Yu, Y-Q. Xu. Example-Based Image Color and Tone Style Enhancement. SIGGRAPH 2011.

40. L. Lin, K. Zeng, Y. Lv, Y. Wang, Y-Q. Xu, and S. C. Zhu et al. Painterly Animation Using Video Semantics and Feature Correspondence. NPAR 2010 (Runner Up of the Best Paper Award)

41. B. Wang, Y. Yu, Y-Q. Xu. Data-Driven Image Color Theme Enhancement. SIGGRAPH Asia 2010.

42. B. Zhang, Q. Li, H. Chao, B., Chen, E. Ofek, and Y-Q. Xu. Annotating and Navigating Tourist Videos. ACM GIS 2010, November 2-5, 2010.

43. M. Lau, J. Chai, Y-Q. Xu, H-Y. Shum. Face Poser: Interactive Modeling of 3D Facial Expressions Using Facial Priors. ACM Transactions on Graphics, 29(1), 2009

44. X. Chen, B. Neubert, Y-Q. Xu, O. Deussen, S. B. Kang. Sketch-based Tree Modeling Using Markov Random Field. SIGGRAPH Asia 2008. Transactions on Graphics (TOG). Volume 27 Issue 5.

45. Q. Luan, S. Drucker, J. Kopf, Y-Q. Xu, M. Cohen. Annotating Gigapixel Images. ACM UIST (ACM Symposium on User Interface Software and Technology) 2008, Monterey, CA, USA, Oct. 19-22, 2008

46. S. Chen, Y. Tian, F. Wen, Y-Q. Xu, and X. Tang. EasyToon: an Easy and Quick Tool to Personalize a Cartoon Storyboard Using Face Photos. ACM Multi-Media 2008. Oct. 27-31, Vancouver, BC, Canada

47. X. Chen, S. B. Kang, Y-Q. Xu, J. Dorsey, H-Y. Shum. Sketching Reality: Realistic interpretation of architectural designs. ACM Transactions on Graphics. April, 2008,Vol. 27(2)

48. M. Oka, K. Kato, Y. Xu, L. Liang, and F. Wen. Scribble-a-Secret: Similarity-Based Password Authentication Using Sketches. ICPR (International Conference on Pattern Recognition, Tampa, Dec. 8-11, 2008. Florida, USA.

49. W. Tong, C-K. Tang, M. S. Brown, Y-Q. Xu: Example-Based Cosmetic Transfer. Pacific Conference on Computer Graphics and Applications 2007: 211-218

50. Q. Luan, F. Wen, Y-Q. Xu: Color Transfer Brush. Pacific Conference on Computer Graphics and Applications 2007: 465-468

51. Q. Luan, F. Wen, D. Cohen-Or, L. Liang, Y-Q. Xu, H-Y. Shum. Natural Image Colorization. EuroGraphics Symposium on Rendering 2007

52. F. Wen, Q. Luan, L. Liang, Y-Q. Xu, and H-Y. Shum. Color Sketch Generation. NPAR2006 (International Symposium on Non-Photorealistic Animation and Rendering), Annecy, France. June 5-7, 2006.

53. L. Liang, F. Wen, Y-Q. Xu, X. Tang, H-Y. Shum: Accurate Face Alignment using Shape Constrained Markov Network. CVPR (1) 2006: 1313-1319

54. D. Cohen-Or, O. Sorkine, R. Gal, T. Leyvand, Y-Q. Xu: Color Harmonization. ACM TOG. SIGGRAPH 2006

55. S. Xu, Y-Q. Xu, S. B. Kang, D. Salesin, Y. Pan, H-Y. Shum: Animating Chinese Paintings Through Stroke-based Decomposition. ACM TOG. 25(2): 239-267 (2006)

56. L. Liang , F. Wen , X. Tang. and Y-Q. Xu . An Integrated Model for Accurate Shape Alignment. ECCV 2006, Graz, Austria, May 7 – 13, 2006 ECCV(4) 33-346

57. V. Setlur, Y-Q. Xu, X. Chen, B. Gooch: Retargeting vector animation for small devices. Proceedings of the 4th Int’l Conf. on Mobile & Ubiquitous Multimedia: 2005, 69-77

58. J. Wang, C. Wu, Y-Q. Xu , H-Y. Shum: Combining Shape and Physical Models for Online Cursive Handwriting Synthesis. IJDAR 7(4): 219-227 (2005)

59. H. Chen, Z. Liu, C. Rose, Y-Q. Xu, H-Y. Shum, D. Salesin: Example-based composite sketching of human portraits. NPAR 2004. Page: 95-153

60. J. Wang, Y-Q. Xu, H-Y. Shum, and M. F. Cohen. Video Tooning. ACM Trans. on Graphics. SIGGAPH2004.

61. C. Wu, C. Liu, H-Y. Shum, Y-Q. Xu, Z. Zhang. Automatic Eyeglasses Removal from Face Images. IEEE Transactions on Pattern Analysis and Machine Intelligence, Volume 26 (3), Page: 322-336, March 2004

62. Y. Chen; S. Lin, H. Zhong; Y-Q. Xu, B. Guo, H-Y. Shum. Realistic Rendering and Animation of Knitwear. IEEE Transactions on Visualization and Computer Graphics, Vol. 9 (1), Page(s): 43-55,March 2003

63. Y. Chen, Y-Q. Xu, B. Guo, and H-Y. Shum. Modeling and Rendering of Realistic Feather. SIGGRAPH 2002

64. H. Chen, N. Zheng, L. Liang , Y. Li, Y-Q. Xu, H-Y. Shum. PicToon: a personalized image-based cartoon system. ACM Multimedia 2002

65. H. Chen, L. Liang, Y. Xu, H. Shum, N. Zheng. Example-based Automatic Portraiture. Proc. of Asian Conference on Computer Vision (ACCV), Melbourne, Australia, 2002

66. J. Wang; C. Wu; Y-Q. Xu; H-Y. Shum; L. Ji. Learning-based cursive handwriting synthesis. Eighth International Workshop on Frontiers in Handwriting Recognition (IWFHR, Canada), 2002. Proceedings. Page(s): 157-162

67. Y-Q. Xu, Y. Chen, S. Lin, H. Zhong, E. Wu, B. Guo, H-Y. Shum. Photorealistic rendering of knitwear using the lumislice. ACM SIGGRAPH 2001

68. Y-Q. Xu, Y. Chen, B. Guo, H-Y. Shum. Knitwear Rendering. ACM SIGGRAPH 2001 Video Review Issue 140, Animation Theater Program Part 2 No.33.

69. Y-Q. Xu, S. Zhu, B. Guo, H-Y. Shum. Asymptotically Admissible Texture Synthesis. In International Workshop on Statistical and Computational Theories of Vision 2001.

70. F. Yu, E. Chang, Y-Q. Xu, H-Y. Shum: Emotion Detection from Speech to Enrich Multimedia Content. IEEE Pacific Rim Conference on Multimedia 2001

71. L. Liang, C. Liu, Y-Q. Xu, B. Guo, H-Y. Shum. Real-time texture synthesis by patch-based sampling. ACM Transactions on Graphics. Volume 20 Issue 3. July 2001

72. H. Chen; Y-Q. Xu; H-Y. Shum; S. Zhu; N. Zheng. Example-based Facial Sketch Generation with Non parametric Sampling. The 8th IEEE International Conference on Computer Vision. 2001. (II: 433-438).

73. H. Zhong, Y-Q. Xu, B. Guo, and H-Y. Shum. Realistic and Efficient Rendering of Free-Form Knitwear. Journal of Visualization and Computer Animation, vol. 12, No. 1, 2001

74. Y. Li, F. Yu, Y-Q. Xu, E. Chang, Y-H. Shum. Speech-Driven Cartoon Animation with Emotions. ACM Multimedia 2001. Ottawa Canada. Sep-Oct 2001.

75. B. Guo, Y-Q. Xu, H. Shum. Chaos Mosaic: Fast and Memory Efficient Texture Synthesis. MSR-TR-2000-32. April 2000.

部分中国专利

1. 气味识别设备

申请公布号:CN109540978A

申请公布日:2019.03.29

发明人:徐迎庆、路奇、彭宇、杨钊、黄立

摘要:本发明实施例提供一种气味识别设备,包括:传感器阵列、数据采集系统及数据处理系统,传感器阵列通过数据采集系统与数据处理系统连接;传感器阵列用于响应于待识别气体,产生电信号;数据采集系统用于采集电信号,并将电信号传输至数据处理系统;数据处理系统用于根据电信号,采用基于机器学习的气味识别算法获得待识别气体的类别信息。本发明实施例通过传感器阵列响应于待识别气体,产生电信号;数据采集系统将电信号传输至数据处理系统;数据处理系统用于根据电信号,采用基于机器学习的气味识别算法获得待识别气体的类别信息。由于采用了基于机器学习的气味识别算法进行气味识别,从而能够在较短的时间内,识别出气味的类别。

 

2. 一种用于搭建足式机器人的电子积木

申请公布号:CN109603172A

申请公布日:2019.04.12

发明人:徐迎庆; 王濛; 米海鹏

摘要: 本发明涉及电子积木领域,公开了一种用于搭建足式机器人的电子积木,包括:主机模块和关节模块;主机模块的侧面上间隔设置有多个连接接口,关节模块包括两个转动连接的积木模块,且两个积木模块通过内部的铰链结构相连,铰链结构与舵机相连,关节模块的一端设置与连接接口相匹配的连接插头、另一端设置连接接口,主机模块与上位机无线连接。本发明提供的一种用于搭建足式机器人的电子积木,设置主机模块和关节模块可将积木模块拼接形成足式机器人;可自动控制关节模块进行转动,实现机器人的行走等运动;可对机器人远程操控进行互动;该电子积木组合简单、拼接方便,可进行互动,提高电子积木的趣味性。

 

3. 一种模块化机器人结构感知方法

申请公布号:CN109605345A

申请公布日:2019.04.12

发明人:徐迎庆、王濛、苏垚、刘航欣、朱松纯

摘要: 本发明实施例提供一种模块化机器人结构感知方法,该方法包括:主机模块通过串口给第一层级的每一关节模块分配地址;第一层级的每一关节模块为第二层级的每一关节模块分配地址;主机模块进行地址扫描,获取I2C地址列表,所述I2C地址列表中包含所有关节模块的地址;主机模块对所述I2C地址列表进行反解,获取所述机器人的连接关系。本发明实施例提供的一种模块化机器人结构感知方法,通过按照一定规律为机器人的每一关节模块分配地址,并通过反解,获取机器人的连接结构,实现模块化机器人结构感知。并且能够在感知到机器人结构的基础上,对机器人实现路径规划,以控制机器人的行走。

 

4. 模块插接组件

授权公告号:CN110034448B

授权公告日:2020.05.29

发明人:徐迎庆、路奇、韩溥、杨钊

摘要: 本发明公开一种模块插接组件。包括相互插接的第一模块和第二模块;在第一模块上沿其长度方向开设有多组连通其宽度方向和高度方向的四通孔;在第二模块上与每组四通孔一一对应的位置处开设有贯穿第二模块宽度方向的第一通孔;沿每组四通孔高度方向开孔的轴向穿设有贯穿第一模块高度方向的第一电连接件,沿每组四通孔宽度方向开孔的轴向以及第一通孔的轴向穿设有贯穿第一模块和第二模块宽度方向的第二电连接件,第一电连接件与第二电连接件导通。本实施例在第一模块上开设四通孔,在第二模块上开设第一通孔,在位置相对应的四通孔与第一通孔内设置相互导通的第一电连接件和第二电连接件,达到了仅使用第一模块和第二模块就实现多维度通信的目的。

 

5. 电子积木

申请公布号:CN107644577A

申请公布日:2018.01.30

发明人:王濛、高家思、李佳音、孙浩、胡佳雄、徐迎庆

摘要: 本发明提供了一种电子积木,包括:控制部件、驱动部件和处理装置;所述控制部件内部设置控制电路,所述驱动部件内部设有驱动电路;所述处理装置接收所述控制部件发送的控制指令并将该控制指令发送至所述驱动部件,以使所述驱动部件执行与所述控制指令相应的动作;所述处理装置采用无线通信的方式分别与所述控制部件所述驱动部件进行通信。本发明实现了每个部件模块都能和处理装置通过无线信号交互通信,可以有效避免电子积木各个部件模块之间无法实现正常电性连接的问题出现,而且具有任意拼装的效果,增进电子积木的实用性和趣味性。

 

6. 一种电子积木连接结构

申请公布号:CN109589618A

申请公布日:2019.04.09

发明人:徐迎庆、王濛、雷克华、米海鹏

摘要: 本发明涉及电子积木领域,公开了一种电子积木连接结构,包括滑槽结构和凸块结构;滑槽结构包括截面为T型或燕尾型的滑槽,凸块结构包括形状和大小与滑槽相匹配的凸块,两个电子积木模块间通过滑槽结构和凸块结构的配合进行机械连接。本发明提供的一种电子积木连接结构,设置滑槽截面呈T型或燕尾型,可对电子积木模块两个方位进行定位,实现电子积木间的牢固连接。且滑槽与凸块插合滑动连接,结构简单,便于操作,可提高电子积木模块连接的便捷性。

 

7. 一种柔性动态形变工艺品

申请公布号:CN108189609A

申请公布日:2018.06.22

发明人:高婧、米海鹏; 路奇; 徐迎庆

摘要: 本发明公开了一种柔性动态形变工艺品,包括手工品、柔性形变层和形变动力源,所述柔性形变层设置在所述手工品的内侧,所述形变动力源与所述柔性形变层连接,所述柔性形变层包括外圈柔性形变记忆合金和套设在所述外圈柔性形变记忆合金内侧的内圈柔性形变记忆合金。本发明所提供的柔性动态形变工艺品通过将柔性形变材料应用到工艺品中,突破了传统工艺品的静态工艺限制,将传统工艺品发展为柔性动态变形工艺,提供了一种具有可行性的柔性动态形变工艺品结构;其结构设计简单合理,柔性动态形变控制科学且简单可控,适合工业化批量生产,且具有特殊的艺术效果,市场前景广阔。

 

8. [实用新型] 一种柔性动态形变工艺品

授权公告号:CN208197960U

授权公告日:2018.12.07

发明人:高婧; 米海鹏; 路奇; 徐迎庆

 

9. 一种组合式的交互系统

申请公布号:CN108230201A

申请公布日:2018.06.29

发明人:王濛、高家思、胡佳雄、孙浩、李佳音、徐迎庆

摘要: 本发明提供了一种组合式的交互系统,包括:指令单元,用于向处理终端发送注册请求并在处理终端中显示与其对应的虚拟指令单元;执行单元,用于向处理终端发送注册请求并在处理终端中显示与其对应的虚拟执行单元;处理终端,用于根据其显示的至少一个虚拟指令单元和至少一个虚拟执行单元组合成虚拟交互系统;虚拟交互系统,用于将处理终端接收来自至少一个指令单元发送的控制指令转换为执行指令,以使处理终端将执行指令发送到至少一个执行单元,以便至少一个执行单元执行与执行指令相对应的动作。本发明实现了简化了编程过程并加强了交互系统的逻辑关系,实现了同时兼具编程的灵活性与易学性。

 

10. 基于铰链结构的可变形交互设备及交互系统

申请公布号:CN104932616A

申请公布日:2015.09.23

发明人:王濛; 米海鹏; 徐迎庆

摘要: 本发明公开了一种基于铰链结构的可变形交互设备及交互系统,涉及人机交互技术领域,所述交互设备包括:处理器、主模块和至少一个子模块,所述处理器设于所述主模块中,所述子模块通过铰链轴与所述主模块活动连接,所述铰链轴上固定有第一齿轮,所述主模块中设有与所述处理器相连的电机,所述电机的转轴上设有第二齿轮,所述电机在处理器的控制下通过所述第二齿轮驱动所述第一齿轮,由所述第一齿轮带动所述铰链轴转动,以实现变形。本发明通过在用于连接主模块和子模块的铰链轴上固定第一齿轮,再通过电机的转轴上的第二齿轮来驱动所述第一齿轮,从而带动铰链轴转动,进而使得交互设备的结构能实现变形,丰富了交互过程,提高了用户体验。

 

11. 一种交互式计算机辅助折纸设计方法

授权公告号:CN104504202B

授权公告日:2017.09.29

发明人:龚江涛; 徐迎庆

摘要: 本发明涉及计算机交互设计领域,尤其涉及一种交互式计算机辅助折纸设计方法。该交互式计算机辅助折纸设计方法包括以下步骤:输入三维模型;提取所述三维模型的三维骨架;根据所述三维骨架,将所述三维模型分解成具有语义的多个基本体;用几何体拟合所述多个基本体,找到与每个基本体对应的相似几何体;调整所述相似几何体之间需要连接的连接面。采用本发明提供的设计方法产生的折纸样式是允许剪裁和粘贴的,较于传统不剪裁的单张折纸样式的高难度、高复杂度方式更适合普通用户,特别适合儿童。

 

12. 儿童发展研究数据平台

申请公布号:CN111209454A

申请公布日:2020.05.29

发明人:鲁艺; 徐迎庆

摘要: 本发明提供一种儿童发展研究数据平台,包括身份验证模块、识别模块、调用模块和显示模块,其中:身份验证模块,用于对登录信息和注册信息进行验证;识别模块,用于对平台界面上版块区域的触发信息进行识别,获得版块类型,所述版块类型包括身体发展类型、心理研究类型、认知研究类型和游戏发展类型;调用模块,用于根据所述版块类型从数据库中调出对应的版块数据;显示模块,用于将所述版块数据在对应的显示区域上进行显示。本发明实施例提供的一种儿童发展研究数据平台,通过对儿童在身体发展、心理研究、认知研究和游戏发展等方面上分析信息的展示,达到传递儿童发展研究数据分析的价值,在传统儿童产品设计中应用平台数据价值的目的。

 

13. 用于富于表情的化身的实时动画

申请公布号:CN102568023A

申请公布日:2012.07.11

发明人:徐宁、王丽娟、宋考平、梁潇、罗琦、徐迎庆、邹欣

摘要: 本发明公开了用于富于表情的化身的实时动画。描述了用于为个性化的卡通化身提供实时动画的技术。在一个示例中,一过程基于语音和运动数据来训练一个或多个动画模型以提供一个或多个上身部分的概率运动集。该过程将表示情绪状态的一个或多个预定短语链接到一个或多个动画模型。在创建模型后,该过程接收实时语音输入。接着,该过程基于在上下文中与实时语音输入匹配的一个或多个预定短语来标识要表达的情绪状态。该过程然后响应于实时语音输入,通过应用一个或多个动画模型来生成一个或多个上身部分的运动的动画序列。

 

14. 草绘真实

申请公布号:CN101300602

申请公布日:2008.11.05

发明人:徐迎庆、S· B· Kang、沈向洋、陈雪锦

摘要: 描述用于草绘真实的系统和方法。在一个方面,根据2-D草图标识一组向量图元。在一个实现中,2-D草图是由用户手绘的。2.5D几何模型是从向量图元自动生成的。2.5D几何模型是自动绘制并向用户呈现的。在一个实现中,用户提供基于2-D草图的用户输入来修改呈现的照明位置、照明方向、照明强度、纹理、颜色和几何形状中的一或多项。

 

15. 电影动画片拍摄方法及系统

申请公布号:CN1057912

申请公布日:1992.01.15

发明人:魏兆南、齐东旭、张立、金辅棠、徐迎庆、施宣、金恒湧、张方、王璞本、于建闽

摘要: 一种电影动画片的拍摄方法及系统,其要点是由电脑编程设计,彩色监视器逐格显示设计图像,由动画摄影机逐格拍摄。本发明较之已有技术具有图像色彩鲜艳饱和、立体感强、动作精度高的优点,并简化常规动画设计中烦琐的步骤及大量的劳动。

 

16. 一种光绘摄影机器人系统

申请公布号:CN109547702A

申请公布日:2019.03.29

发明人:徐迎庆、胡佳雄、李佳音、雷克华、刘枝秀

摘要: 本发明实施例提供一种光绘摄影机器人系统,包括机器人本体、用户终端和相机,所述用户终端分别与机器人本体和相机通信连接。用户终端包括光绘板模块和拍摄设置模块,机器人本体接收用户终端上传的相机参数以及预先绘制的图像数据进行解析,根据解析结果控制led灯带的闪烁和底盘的运动,配合相机的曝光同步进行光绘摄影。用户可以在用户终端预先绘制图案并设置相机参数,然后将图案数据和相机参数上传至机器人本体,即可进行光绘。使用户能够更加方便的完成复杂的光绘图案。解决了现有技术中,摄影师需要手持光源在空间内描绘出光绘图案,且手持光源描绘图案时看不到光源描过的轨迹,操作难度较高且容易失败的技术问题。

 

17. 一种用户交互平台及用户交互信息识别展示方法

申请公布号:CN110069198A

申请公布日:2019.07.30

发明人:徐迎庆、路奇、李佳音、高婧

摘要: 本发明实施例提供了一种用户交互平台及用户交互信息识别展示方法,用户交互平台包括:用户输入工具、用户操作屏以及背光照射设备;所述用户输入工具用于在所述用户操作屏的第一面上输入信息;所述背光照射设备正对所述用户操作屏的第二面,用于感应所述输入信息并将所述输入信息转换为图像投影到所述用户操作屏上。本发明实施例提供的用户交互平台及用户交互信息识别展示方法,通过用户输入工具能够帮助用户自由在用户操作屏上进行相应操作,同时将操作信息解析为图像实时在用户操作屏上进行显示,从而使得用户交互性更强,提高用户的体验。

 

18. 一种触觉引导装置

申请公布号:CN109407907A

申请公布日:2019.03.01

发明人:焦阳、徐迎庆、贾艳红、张锦文、孙浩、高家思

摘要: 本发明公开一种触觉引导装置。其中,所述装置包括:引导机构和H型龙门滑台,H型龙门滑台包括H型龙门机构、横向移动块、横向轨道、横向传动机构、纵向轨道和纵向传动机构,所述H型龙门机构沿所述纵向轨道移动,所述纵向传动机构用于调整所述H型龙门机构在所述纵向轨道上位置,在所述H型龙门机构上设置所述横向轨道,所述横向移动块沿所述横向轨道移动,所述横向传动机构用于调整所述横向移动块在所述横向轨道上的位置;所述引导机构设置在所述横向移动块上,随着所述横向移动块移动。本发明提供的触觉引导装置,能够实现对触觉显示器显示的图像的触摸引导,提高了触觉显示器的工作效率。

 

19. 一种带有触觉引导功能的图形显示器及其使用方法

申请公布号:CN109407908A

申请公布日:2019.03.01

发明人:焦阳、徐迎庆、贾艳红、张锦文、孙浩、高家思

摘要: 本发明公开一种带有触觉引导功能的图形显示器及其使用方法。其中,所述图形显示器包括:显示装置、触觉引导装置、控制装置和支撑平台,所述显示装置和所述触觉引导装置设置在所述支撑平台上,所述控制装置分别与所述显示装置和所述触觉引导装置相连,所述控制装置用于控制所述显示装置显示图像和控制所述触觉引导装置引导视觉障碍人士触摸显示的所述图像。本发明提供的带有触觉引导功能的图形显示器及其使用方法,提高了图形显示器的工作效率。

 

20. 自锁机构及面向盲人的触觉图像触摸点阵

授权公告号:CN104916992B

授权公告日:2017.04.19

发明人:李佳炜、徐迎庆、焦阳、卢秋宇

摘要: 本发明公开了一种自锁机构及面向盲人的触觉图像触摸点阵,涉及触觉显示技术领域,所述自锁机构包括:基座、自锁主体、上方传动杆、下方传动杆、张力弹簧和支撑杆,所述下方传动杆的上端与所述自锁主体的下表面相连,所述上方传动杆的下端与所述自锁主体的上表面相连,所述自锁主体设于所述基座的槽道内,所述支撑杆两端设有折弯,所述张力弹簧套设于所述上方传动杆上,所述支撑杆的第一折弯设于所述基座的支撑孔中,所述自锁主体上设有自锁凹槽,所述支撑杆的第二折弯设于所述自锁凹槽内。本发明的自锁机构通过各部件的配合能够便捷实现,简化了结构,并降低了体积和成本。

 

21. [实用新型] 自锁机构及面向盲人的触觉图像触摸点阵

授权公告号:CN204760662U

授权公告日:2015.11.11

发明人:李佳炜; 徐迎庆; 焦阳; 卢秋宇

 

22. 面向盲人的触觉图像引导装置

授权公告号:CN104932621B

授权公告日:2018.07.27

发明人:卢秋宇、徐迎庆、李佳炜、焦阳

摘要: 本发明公开了一种面向盲人的触觉图像引导装置,涉及触觉显示技术领域,所述装置包括:引导块、第一引导块导轨、第二引导块导轨、第一传动机构和第二传动机构,第一引导块导轨和第二引导块导轨之间呈预设角度且均穿过引导块,第一传动机构用于调节第一引导块导轨的位置,第二传动机构用于调节第二引导块导轨的位置;通过调节第一引导块导轨和第二引导块导轨的位置来调整引导块的位置,以实现触觉图像引导。本实施方式通过呈预设角度的第一引导块导轨和第二引导块导轨穿过引导块,通过调节第一引导块导轨和第二引导块导轨的位置来调整引导块的位置,实现了触觉图像引导,避免了因为触摸方向的不同,所导致的理解不同,提高了用户体验。

 

23. [实用新型] 面向盲人的触觉图像引导装置

授权公告号:CN204883480U

授权公告日:2015.12.16

发明人:卢秋宇;  徐迎庆; 李佳炜; 焦阳

 

24. 点阵式磁控刷新触觉显示器

[发明授权] 一种用于三维建模的节点硬件

授权公告号:CN106055826B

授权公告日:2019.04.05

发明人:王濛; 米海鹏; 徐迎庆

摘要: 本发明公开一种用于三维建模的节点硬件,应用于非刚性界面,该节点硬件包括:第一端结构、第二端结构以及万向接头;所述万向接头连接所述第一端结构和所述第二端结构;所述第一端结构设置有第一连接器件;所述第二端结构设置有第二连接器件以及第三连接器件;所述第三连接器件,用于与其他节点硬件的第一连接器件或第二连接器件连接,以实现三维建模。本发明通过万向接头,使得节点硬件的两个端结构能转向往任何方向,并通过两个端结构设置的三个连接器件实现与其他节点硬件的连接,从而实现三维建模,可应用于非刚性界面NRI,属于使用可变形结构的NRI,在不使用柔性材料的条件下,也可以进行变形。

 

25. 触摸点阵的二维驱动平台

授权公告号:CN104934793B

授权公告日:2017.09.22

发明人:徐迎庆、焦阳、李佳炜、卢秋宇

摘要: 本发明公开了一种触摸点阵的二维驱动平台,涉及触摸显示技术领域,所述二维驱动平台包括:推拉式电磁铁、传动组件、滑台和传送机构,所述推拉式电磁铁设于所述滑台上,所述传动组件与所述推拉式电磁铁的数量相同,且一一对应,所述传动组件的第一端与对应的推拉式电磁铁的导杆相连;在对应的推拉式电磁铁的导杆产生推力时,所述传动组件的第二端改变其对准的所述触摸点阵上自锁机构的状态;所述传送机构,用于带动所述滑台沿与触摸点阵的平行方向移动。本发明的二维驱动平台通过各部件的配合能够便捷实现,简化了结构,并降低了体积和成本。

 

26. [实用新型] 触摸点阵的二维驱动平台

授权公告号:CN204885662U

授权公告日:2015.12.16

发明人:徐迎庆; 焦阳; 李佳炜; 卢秋宇

 

27. 点阵式磁控刷新触觉显示器

授权公告号:CN104915085B

授权公告日:2017.10.27

发明人:焦阳; 徐迎庆; 卢秋宇; 李佳炜; 王濛; 吴桐

摘要: 本发明公开了一种点阵式磁控刷新触觉显示器,涉及触觉显示技术领域,所述显示器包括:点阵面板、自锁阵列、刷新单元和控制单元,所述点阵面板上设有若干触点,所述自锁阵列包括与所述触点的数量相同且一一对应的自锁机构;所述控制单元,用于根据待显示图像确定目标触点;所述刷新单元,用于调整所述目标触点对应的自锁机构的状态,从而在所述点阵面板上通过所述触点显示所述待显示图像。本发明通过各部件之间的配合,简化了触觉显示器的结构,并降低了体积和成本。

 

28. [实用新型] 点阵式磁控刷新触觉显示器

授权公告号:CN204883671U

授权公告日:2015.12.16

发明人:焦阳; 徐迎庆; 卢秋宇; 李佳炜; 王濛; 吴桐

 

29. 一种便携式气味采集装置及播放装置

申请公布号:CN110665331A

申请公布日:2020.01.10

发明人:徐迎庆、路奇、贾艳红、吴昊、杨佳伟

摘要: 本发明涉及气味采集技术领域,提供一种便携式气味采集装置及播放装置,便携式气味采集装置包括顶空罩、抽气装置和气体收集装置;顶空罩通过第一管路连通抽气装置的进气口,抽气装置的出气口通过第二管路连通气体收集装置;气体收集装置包括储气装置、液态吸附装置、固态吸附装置中的至少一种;本发明所示的便携式气味采集装置结构简单,操作便捷,便于用户简单迅速地进行气味采集和存储,在进行气味播放时,可通过管路将气体收集装置、抽气装置及气味播放面罩依次连通,以构成播放装置,从而对上述物理性采集的气味实现了物理性的输出,达到了对气味进行真实性复现的目的,增强了用户对气味的真实性回忆与体验。

 

30. MEMS气体检测系统及方法

申请公布号:CN110749629A

申请公布日:2020.02.04

发明人:徐迎庆、路奇、杨佳伟、贾艳红

摘要: 本发明实施例提供一种MEMS气体检测系统及方法,该系统包括:传感器阵列集成电路板、控制模块和调温模块;传感器阵列集成电路板包括多个MEMS气体传感器和至少一个多路复用模块;调温模块用于对MEMS气体传感器进行加热;多个MEMS气体传感器采集气体信息后,通过多路复用模块,发送给控制模块;控制模块用于控制多路复用模块,获取MEMS气体传感器采集的气体信息,并发送至上位机进行分析。由于使用MEMS气体传感器,体积小,传感材料使用量会大大降低,且导电率相对较高,从而传感器电阻的动态范围较高,精度较高。通过多路复用模块发送给控制模块,有效减少控制模块的信息通路数量,大幅降低了数据接口占用数量。

 

31. 人群的位置和数目获取装置

申请公布号:CN108399618A

申请公布日:2018.08.14

发明人:路奇; 米海鹏; 徐迎庆

摘要: 本发明提供一种人群的位置和数目获取装置,包括:热红外摄像机、传输模块和计算终端;所述计算终端包括:图像处理模块和人数估算模块;所述传输模块与所述热红外摄像机连接,用于将所述热红外摄像机获取的热红外图像无线传输至所述计算终端;所述图像处理模块用于提取所述热红外图像的热区,并基于所述热区,根据人体体温范围获取人对应的热区;所述人数估算模块用于基于人对应的热区计算人数。本发明提供的人群的位置和数目获取装置,用于实时对公共场所的人群分布进行定位并获取人群数目,进而用于驱动交互装置以采取适当的措施避免踩踏事故。

 

32. 图像处理的装置和方法

申请公布号:CN110634169A

申请公布日:2019.12.31

发明人:徐千尧、徐迎庆、张韵叠、刘爱兵、胡佳雄、孙浩、高家思

摘要: 本申请提供了一种图像处理的方法,其特征在于,包括:确定一个预设的颜色组为目标颜色组,所述目标颜色组包括第一文字色以及与所述第一文字色对应的第一背景色;根据所述目标颜色组,生成目标图像。通过确定包含文字色和背景色的预设颜色组,解决由于文字色与背景色分别进行选择导致的文字色、背景色搭配不和谐的问题,能够实现文字色与背景色的合理设计和配置,从而能够保证生成美观的图像。

 

33. 语音情感识别和标注的方法及装置

申请公布号:CN109192225A

申请公布日:2019.01.11

发明人:徐迎庆、胡佳雄、胡效竹、叶星宇、徐千尧、王楠

摘要: 本发明实施例提供一种语音情感识别和标注方法及装置,该方法包括:对语音音频的识别文本进行文本情感识别,获得语音音频的文本情感信息;对语音音频的声学特征进行语音情感识别,获得语音音频的语音情感信息;结合语音情感信息及文本情感信息后,匹配获得对应的表情符号,并采用表情符号对识别文本进行标注。本发明实施例通过语音和文本双通道的情感识别,在语音识别的过程中给识别文本标注了合适的表情符号来表征识别文本中语句的情感信息,从而减少了语音识别过程中情感信息的缺失。

 

34. 交互式壁画修复系统

申请公布号:CN111210391A

申请公布日:2020.05.29

发明人:付心仪; 朱雅鑫; 徐迎庆

摘要: 本发明实施例提供一种交互式壁画修复系统,包括:场景展示装置,用于创建与壁画修复相关的多个虚拟场景,所述多个虚拟场景分别为展览场景、漫游场景、探索场景和壁画修复场景;数据处理装置,用于调度所述多个虚拟场景、处理用户在各个所述虚拟场景中的交互操作以及提供所述虚拟场景中的引导信息;修复交互装置,用于识别所述交互操作以及在所述壁画修复场景下,根据所述交互操作模拟壁画修复过程。本发明实施例以数字化的手段被处理、储存和展示,具有可重复、易获取和便于推广传播等优势。

 

35. 破损壁画修复方法及系统

申请公布号:CN108665416A

申请公布日:2018.10.16

发明人:付心仪、韩奕、魏文、徐迎庆

摘要: 本发明提供了一种破损壁画修复方法及系统,本发明通过线描预处理、壁画缺损选定、壁画区域分割、缺损复原的流程方法可以提高复原效率、降低复原难度、同时能够取得更加完好的复原效果。复原的效果令人满意,对于无论是划痕、小面积脱落、甚至是很大比例的严重缺损,都可以得到良好的复原。可以得到良好的复原。可以得到良好的复原。可以得到良好的复原。

 

36. 烟熏效果真实感模拟方法

授权公告号:CN104091025B

授权公告日:2017.02.15

发明人:王功明、徐迎庆、魏文、付心仪

摘要: 本发明公开了烟熏效果真实感模拟方法,具体包括:S1、在HSV图像中选择烟熏区域,烟熏区域中任一点的亮度衰减因子为水平方向亮度衰减因子和竖直方向亮度衰减因子的乘积;S2、通过交互调节水平方向亮度衰减因子和竖直方向亮度衰减因子的值来改变烟熏区域的亮度;S3、判断烟熏区域的亮度是否达到预期的烟熏效果,如果达到则停止,否则对烟熏区域重复步骤S1~S3的操作,直到达到为止。利用对HSV颜色空间中亮度的衰减来模拟烟熏效果,亮度从原始值衰减到0可以表现从全新到彻底熏黑的整个烟熏过程,并利用水平和竖直两个正交方向交互调节烟熏的分布和强弱,可通过简单有效的调节生成预期的烟熏效果,真实感较强。

 

37. 光谱测量和盲源分离相结合的混合颜料成分分析方法

申请公布号:CN104165844A

申请公布日:2014.11.26

发明人:王功明、徐迎庆、魏文、付心仪、严娴、张映雪

摘要: 本发明涉及一种光谱测量和盲源分离相结合的混合颜料成分分析方法。包括以下步骤:(1)从混合颜料获取足够数量的光谱反射比R;(2)将R转换为对应的吸收散射比K/S,并进行白化处理;(3)对白化处理后的信号进行盲源分离,得到最终的独立分量;(4)将独立分量表示的K/S与数据库中已知基本颜料的K/S进行匹配,得到对应的基本颜料种类;(5)根据基本颜料的K/S,以及混合颜料的K/S,采用Kubelka-Munk定理,建立方程组并求解,得出基本颜料的比例。利用本发明中的方法,进行混合颜料成分分析,不仅能得到基本颜料的种类信息,还能得到基本颜料在混合颜料中的比例信息,同时全过程自动化,具有较高的执行效率。

 

38. 烟熏壁画动态形成过程的模拟方法

授权公告号:CN104599293B

授权公告日:2017.07.07

发明人:王功明、徐迎庆、冼枫、付心仪、魏文、严娴

摘要: 本发明公开一种烟熏壁画动态形成过程的模拟方法,能够解决现有的烟熏壁画动态形成过程的模拟方法所存在的真实感差、步骤繁琐和不易掌握的问题。所述方法包括:根据烟雾颗粒的运动轨迹、范围、速度、粒径和壁画颜料对烟雾颗粒的吸附性,建立基于烟雾颗粒运动及分布规律的烟熏壁画动态形成模型;根据所述烟熏壁画动态形成模型,将烟雾颗粒整体运动参数随机转换为每个烟雾颗粒自身的运动参数,并根据所述每个烟雾颗粒自身的运动参数,计算烟雾颗粒在不同时刻的运动状态;计算壁画在烟雾颗粒所在位置处对烟雾颗粒的吸附概率阈值,根据所述吸附概率阈值,确定出烟雾颗粒绘制区域内像素点的不透明度,并根据所述不透明度,采用可视化方法动态绘制吸附在壁画表面的烟雾颗粒。

 

39. 智能自行车信息呈现方法及系统

授权公告号:CN104527856B

授权公告日:2017.04.12

发明人:王濛、徐迎庆、鲁晓波、米海鹏、王超、余凯、陶吉、顾嘉唯、言莎莎

摘要:本发明提供了一种智能自行车信息呈现系统,其特征在于,所述系统包括多个LED灯及控制单元;多个LED灯包括踏频LED灯、心率LED灯及导航LED灯;控制单元,与所述踏频LED灯、心率LED灯及导航LED灯分别连接,用于控制所述踏频LED灯、心率LED灯及导航LED灯。本发明还提供了一种智能自行车信息呈现方法,通过LED灯的形状、颜色及闪烁形式来传达语义,简洁有效地为用户提供显示踏频、心率等生理信息,以及导航提示。

 

40. 智能自行车供电方法及系统

授权公告号:CN104578361B

授权公告日:2017.08.11

发明人:陶吉、徐迎庆、米海鹏、王超、黄向阳、余凯、顾嘉唯、言莎莎

摘要: 本发明提供了一种智能自行车供电系统,所述供电系统包括发电花鼓、电能处理单元及电池单元;发电花鼓,设置于自行车前轮轴承上,与所述电能处理单元连接,用于通过自行车的骑行产生交流电;电能处理单元,设置于车梁内,与所述发电花鼓与所述电池单元分别连接,用于对所述交流电进行处理,并识别用电模块的用电需求;电池单元,设置于车梁内,与所述电能处理单元连接,用于为各用电模块分配供电,以及储存电能。本发明还提供了一种智能自行车供电方法,通过发电花鼓对电池进行充电,并根据各用电模块对电流和功率的需求,智能地为各用电模块供电,使得用电装置能够正常使用。

 

41. 智能自行车操作系统及调度方法

申请公布号:CN104670383A

申请公布日:2015.06.03

发明人:王超、徐迎庆、米海鹏、王濛、焦阳、余凯、陶吉、顾嘉唯、言莎莎

摘要: 本发明提供了一种智能自行车操作系统,其特征在于,所述操作系统包括主控板、骑行生理数据单元、骑行环境与姿态单元、信息呈现单元及电源单元;主控板位于车身横梁处,与骑行生理数据单元、骑行环境与姿态单元、信息呈现单元及电源单元分别连接,用于调度和管理所述骑行生理数据单元、骑行环境与姿态单元、信息呈现单元及电源单元。本发明还提供了基于上述系统的调度方法,通过对各单元及功能模块进行组合或独立调用,为用户提供骑行指导与建议,实现社交、导航、健康监控、智能推荐路线及健身计划等功能。

 

42. 智能自行车骑行环境与姿态监测方法及系统

申请公布号:CN104501800A

申请公布日:2015.04.08

发明人:徐迎庆、米海鹏、王超、王濛、余凯、陶吉、顾嘉唯、言莎莎

摘要: 本发明提供了一种智能自行车骑行环境与姿态监测系统,其特征在于,所述系统包括数据采集单元、主控板及移动终端;数据采集单元,包括加速度计、三轴陀螺仪、全球定位系统GPS模块、气压高度计及温度计;主控板,设置于车身横梁中,用于接收所述数据采集单元采集的数据,将所述数据贴上时间标签,打包后发送至移动终端;移动终端,用于根据接收到的数据,获得骑行环境与状态,并根据所述骑行环境与状态提供多种服务。本发明还提供了一种智能自行车骑行环境与姿态监测方法,通过各种数据采集装置采集车辆位置、车辆姿态及道路情况等数据,并根据各项数据为骑行者规划最佳骑行路线、推荐最佳骑行档位、生成骑行轨迹及找寻骑行伙伴等。

 

43. 智能自行车防盗方法及系统

授权公告号:CN104590437B

授权公告日:2018.05.11

发明人:余凯、徐迎庆、米海鹏、王超、焦阳、陶吉、顾嘉唯、言莎莎

摘要: 本发明提供了一种智能自行车防盗系统,该系统包括自行车锁、定位单元及通信单元;自行车锁,内嵌于自行车后轮轴承中,与所述通信单元连接,用于防止所述自行车后轮轴承转动;定位单元,位于自行车上,用于对自行车进行定位;通信单元,与所述定位单元连接,用于实现自行车的定位系统与远程终端的通信。本发明还提供了一种智能自行车防盗方法,基于自行车的定位单元和通信单元对自行车进行实时定位显示。本发明能够减少盗窃自行车产生的利益价值,从而消除盗窃该自行车的动机。

 

44. 智能自行车供电方法及系统

申请公布号:CN104578361A

申请公布日:2015.04.29

发明人:陶吉、徐迎庆、米海鹏、王超、黄向阳、余凯、顾嘉唯、言莎莎

摘要: 本发明提供了一种智能自行车供电系统,所述供电系统包括发电花鼓、电能处理单元及电池单元;发电花鼓,设置于自行车前轮轴承上,与所述电能处理单元连接,用于通过自行车的骑行产生交流电;电能处理单元,设置于车梁内,与所述发电花鼓与所述电池单元分别连接,用于对所述交流电进行处理,并识别用电模块的用电需求;电池单元,设置于车梁内,与所述电能处理单元连接,用于为各用电模块分配供电,以及储存电能。本发明还提供了一种智能自行车供电方法,通过发电花鼓对电池进行充电,并根据各用电模块对电流和功率的需求,智能地为各用电模块供电,使得用电装置能够正常使用。

 

45. 智能自行车骑行生理数据监测方法及系统

申请公布号:CN104468824A

申请公布日:2015.03.25

发明人:米海鹏、徐迎庆、王超、方可、王濛、余凯、陶吉、顾嘉唯、言莎莎

摘要: 本发明提供了一种智能自行车骑行生理数据监测系统,其特征在于,所述系统包括多个传感器、主控板及手机终端;多个传感器,包括速度传感器、踏频传感器、心率传感器及压力传感器;主控板,位于自行车车身横梁处,用于接收所述多个传感器采集的数据,并发送给手机终端;手机终端,用于根据接收到的数据,获得用户骑行特征,并根据所述骑行特征提供多种服务。本发明还提供了一种智能自行车骑行生理数据监测方法,通过内嵌于自行车上的各传感器、主控板及手机终端,能够对用户骑行过程中的各项生理数据进行采集与处理,并实时方便地提供生理监测、健康指导、车辆调速及危险预警等服务。

 

46. 一种基于图像的商品结算方法、装置、介质及电子设备

申请公布号:CN111222382A

申请公布日:2020.06.02

发明人:梅涛、吴楠、赵何、刘武、徐迎庆、张雷、周伯文

摘要: 本发明实施例提供了一种基于图像的商品结算方法、装置、介质及电子设备,包括:对所获取的待结算图像进行检测,确定出上述待结算图像中待结算商品的区域图像;对所待结算商品的区域图像进行低维度映射,获得对应于上述待结算商品的特征向量;基于上述待结算商品的特征向量,在预设的特征向量识别数据库中识别出上述待结算商品的特征向量所对应的价格信息;将所识别出的价格信息求和,输出上述待结算图像的结算总价格。本发明实施例的技术方案在零售结算场景中,无需结算员操作,对用户放置在结算台上的商品进行识别,实现了自动、快速、准确地识别商品类别与数量计算结算金额,降低了成本。

 

47. 自动社交网络图挖掘和可视化

[发明授权] 用于自动社交网络图挖掘和可视化的方法和系统

授权公告号:CN102893275B

授权公告日:2017.06.13

发明人:聂再清、曹涌、罗刚、张若驰、刘晓江、马云霄、张波、徐迎庆、文继荣

摘要: 此处描述的自动社交网络图挖掘和可视化技术从一般(不必是社交应用专用的)网页挖掘社交连接并允许创建社交网络图。该技术使用一个或多个网页上一人/实体的名称和相关人/实体的名称之间的距离来确定各人/实体之间的连接以及这些连接的强度。在一个实施例中,该技术通过使用力指向模型对这些连接进行布局,然后将这些连接聚集在表示相关的人或实体的名称之间的Web连接强度的社交网络图的2-D布局中。

 

48. 基于散点透视图像计算三维空间布局的方法与系统

授权公告号:CN101930626B

授权公告日:2012.07.04

发明人:王亦洲、马伟、徐迎庆、马歆、李琼、胡锤、高文

摘要: 本发明公开了一种基于散点透视图像计算三维空间布局的方法与系统。该方法包括:抽取数字图像的构图线索;通过插值,扩散所述构图线索,建立图像空间上的连续线索;依据连续线索,建立所述数字图像和所述数字图像所描述的三维空间支撑面之间的几何映射关系;给定所述数字图像上的任意一点,依据该点所在目标物对应的图像上的支撑点位置和所述几何映射关系,计算得到该点在三维空间中的点。本发明从画家的绘画原理出发,给出散点透视几何解,建立了散点透视图画和其所描绘的三维空间之间的关系;能够在画所描述的三维空间中有效定位画中目标物,定位效果与感知效果一致。

 

49. [外观设计] 车把

授权公告号:CN303286619S

授权公告日:2015.07.15

设计人:言莎莎; 顾嘉唯; 余凯; 陶吉; 陈小莹; 徐迎庆; 张雷; 苏艺; 孙爽; 王宇

 

50. [外观设计] 智能结算台

授权公告号:CN305523160S

授权公告日:2019.12.31

设计人:梅涛; 张雷; 徐迎庆; 刘武; 赵何

 

51. [外观设计] 包装组件

授权公告号:CN304907292S

授权公告日:2018.11.23

设计人:鲁艺;  徐迎庆; 梁韵; 吴俊颉; 姚培珍; 陆柳亦

 

部分美国专利

1. Presentation facilitation

United States Patent:                9,626,064

Inventors: Xu; Ying-Qing, Shum; Heung-Yeung, Zhang; Ya-Qin, Li; Barn-Wan, Liu; Bo

发明人:徐迎庆、沈向洋、张亚勤、李半顽、刘波

Abstract: Multiple schemes and techniques for facilitating presentations with an interactive application are described. For example, an interactive application provides a console view overlay for integrating multiple productivity applications into a graphical user interface (GUI) window. An interactive application can also share a selected display portion of the console view overlay with other interactive applications. As another example, presenters and other audience members can draw on the selected display portion being shared, and the drawn graphics are synchronously displayed by the other interactive applications. Interactive applications, as directed by their users, can join various member groups and specific presentations thereof. Moreover, a user may share content in accordance with membership grouping.

 

2. Sketching reality

United States Patent: 7,639,250

Inventors: Xu; Ying-Qing, Kang; Sing Bing, Shum; Heung-Yeung, Chen; Xuejin

发明人:徐迎庆、江胜民、沈向洋、陈雪锦

Abstract: Systems and methods for sketching reality are described. In one aspect, a set of vector primitives is identified from a 2-D sketch. In one implementation, the 2-D sketch is hand-drawn by a user. A 2.5D geometry model is automatically generated from the vector primitives. The 2.5D geometry model is automatically rendered and presented to a user. In one implementation, the user provides 2-D sketch-based user inputs to modify one or more of lighting position, lighting direction, lighting intensity, texture, color, and geometry of the presentation.

 

3. Knitwear modeling

United States Patent: 7,266,478

Inventors: Xu; Ying-Qing, Guo; Baining, Zhong; Hua, Shum; Heung-Yeung

发明人:徐迎庆、郭百宁、钟华、沈向洋

Abstract: Knitwear modeling is disclosed. A macrostructure corresponding to a three-dimensional object is generated, based on a stitch pattern and optionally a color pattern. Yarn microstructure is generated and applied to the macrostructure to yield a knitwear model. The stitch positions of the macrostructure can be perturbed to achieve stitch position irregularities. The fluffiness of the yarn microstructure can be controlled. In an alternative embodiment, a two-dimensional knitwear texture is generated, which can then be mapped to a three-dimensional object to yield a knitwear model.

 

4. Cloth animation modeling

United States Patent: 6,532,014

Inventors: Xu; Ying-Qing, Shum; Heung-Yeung, Cheng; Chi-Yi

发明人:徐迎庆、沈向洋、程迟薏

Abstract: A model for cloth, which allows for substantially real-time animation of the cloth, is disclosed. The latitudinal (vertical) nodes of the model are decoupled from the longitudinal (horizontal) nodes in one embodiment. In one embodiment, the latitudinal nodes are modeled as physical splines, and the longitudinal nodes are modeled as stiff multi-section rods between adjacent latitudinal nodes. The model is then rendered.

 

5. Learning-based system and process for synthesizing cursive handwriting

United States Patent: 7,227,993

Inventors: Xu; Ying-Qing, Shum; Heung-Yeung, Wang; Jue, Wu; Chenyu

发明人:徐迎庆、沈向洋、王珏、伍宸喻

Abstract: A process and system for modeling, learning and synthesizing cursive handwriting in a user’s personal handwriting style. The handwriting synthesis system and process described herein addresses the problem of learning the personal handwriting style of a user based on limited handwriting samples and producing novel scripts of the same style. The handwriting synthesis process includes segmenting handwriting samples into individual characters using a two-level writer-independent segmentation process, aligning samples of the same character into a common coordinate frame, and learning and modeling the individual character. Synthesis of handwriting is performed by generating individual letters from the models and concatenating the letters using a conditional sampling algorithm. The result is a smooth and fluid connection between letters that successfully mimics the personal handwriting style of a user.

 

6. Automated social networking graph mining and visualization

United States Patent: 9,990,429

Inventors: Nie; Zaiqing, Cao; Yong, Luo; Gang, Zhang; Ruochi, Liu; Xiaojiang, Ma; Yunxiao, Zhang; Bo, Xu; Ying-Qing, Wen; Ji-Rong

发明人:聂再青、曹勇、罗刚、张若弛、刘小江、马云霄、张波、徐迎庆

Abstract: The automated social networking graph mining and visualization technique described herein mines social connections and allows creation of a social networking graph from general (not necessarily social-application specific) Web pages. The technique uses the distances between a person’s/entity’s name and related people’s/entities names on one or more Web pages to determine connections between people/entities and the strengths of the connections. In one embodiment, the technique lays out these connections, and then clusters them, in a 2-D layout of a social networking graph that represents the Web connection strengths among the related people’s or entities’ names, by using a force-directed model.

 

7. User behavior model for contextual personalized recommendation
United States Patent                  9,292,580

Inventors: Mei; Tao, Xu; Ying-Qing, Li; Shipeng, Zhuang; Jinfeng, Zhang; Bo, Xu; Peng

发明人:梅涛、徐迎庆、李世鹏、庄金峰、张波、徐鹏

Abstract: A user behavior model provides personalized recommendations based in part on time and location, particularly to users of mobile devices. Entity types are ranked according to relevance to the user. Example entity types are restaurant, hotel, etc. The relevance may be based on reference to a large-scale database containing queries from other users. Additionally, entities within each entity type may be ranked based on relevance to the user and the time and location context. A user interface may display a ranked list of entity types, such as restaurant, hotel, etc., wherein each entity type is represented by a highest-ranked entity with the entity type. Thus, the user interface may display a highest-ranked restaurant, a highest-ranked hotel, etc. Upon user selection of one such entity type the user interface is replaced with a second user interface, for example showing a ranked hierarchy of restaurants, headed by the highest-ranked restaurant.

 

8. City scene video sharing on digital maps

United States Patent: 9,167,290

Inventors: Zhang; Bo, Xu; Ying-Qing, Chen; Bill P, Ofek; Eyal, Guo; Baining

发明人:张波、徐迎庆、Chen; Bill P, Ofek; Eyal, 郭百宁

Abstract: A video sharing system is described to annotate and navigate tourist videos. An example video sharing system enables non-linear browsing of multiple videos and enriches the browsing experience with contextual and geographic information.

 

9. Clipart cartoon techniques

United States Patent: 8,933,962

Inventors: Sun; Jian, Xu; Ying-Qing, Tao; Litian, Huang; Mengcheng

发明人:孙剑、徐迎庆、陶李天、黄梦成

Abstract: Techniques for generating a personalized cartoon by using a few text queries are described herein. The present disclosure describes efficiently searching multiple images from a network, obtaining clipart image from the multiple images, and vectorization of the clipart image. The present disclosure also describes techniques to change a style of the cartoon such as recoloring one or more cartoon objects.

 

10. Cartoon personalization

United States Patent: 8,831,379

Inventors: Wen; Fang, Tang; Xiao-Ou, Xu; Ying-Qing

发明人:闻芳、汤晓鸥、徐迎庆

Abstract: Embodiments that provide cartoon personalization are disclosed. In accordance with one embodiment, cartoon personalization includes selecting a face image having a pose orientation that substantially matches an original pose orientation of a character in a cartoon image. The method also includes replacing a face of the character in the cartoon image with the face image. The method further includes blending the face image with a remainder of the character in the cartoon image.

 

11. Gesture-based visual search

United States Patent: 8,831,349

Inventors: Mei; Tao, Li; Shipeng, Xu; Ying-Qing, Zhang; Ning, Chen; Zheng, Sun; Jian-Tao

发明人:梅涛、李世鹏、徐迎庆、张宁、陈正、孙建涛

Abstract: A user may perform an image search on an object shown in an image. The user may use a mobile device to display an image. In response to displaying the image, the client device may send the image to a visual search system for image segmentation. Upon receiving a segmented image from the visual search system, the client device may display the segmented image to the user who may select one or more segments including an object of interest to instantiate a search. The visual search system may formulate a search query based on the one or more selected segments and perform a search using the search query. The visual search system may then return search results to the client device for display to the user.

 

12. Calibration and annotation of video content

United States Patent: 8,769,396

Inventors: Chen; Billy, Ofek; Eyal, Zhang; Bo, Xu; Ying-Qing

发明人:Chen; Billy, Ofek; Eyal, 张波、徐迎庆

Abstract: Various embodiments provide techniques for calibrating and annotating video content. In one or more embodiments, an instance of video content can be calibrated with one or more geographical models and/or existing calibrated video content to correlate the instance of video content with one or more geographical locations. According to some embodiments, geographical information can be used to annotate the video content. Geographical information can include identification information for one or more structures, natural features, and/or locations included in the video content. Some embodiments enable a particular instance of video content to be correlated with other instances of video content based on common geographical information and/or common annotation information. Thus, a user can access video content from other users with similar travel experiences and/or interests. A user may also access annotations provided by other users that may be relevant to a particular instance of video content.

 

13. Cartoon face generation

United States Patent: 8,437,514

Inventors: Wen; Fang, Liang; Lin, Xu; Ying-Qing, Zou; Xin

发明人:闻芳、梁林、徐迎庆、邹欣

Abstract: A face cartooning system is described. In one implementation, the system generates an attractive cartoon face or graphic of a user’s facial image. The system extracts facial features separately and applies pixel-based techniques customized to each facial feature. The style of cartoon face achieved resembles the likeness of the user more than cartoons generated by conventional vector-based cartooning techniques. The cartoon faces thus achieved provide an attractive facial appearance and thus have wide applicability in art, gaming, and messaging applications in which a pleasing degree of realism is desirable without exaggerated comedy or caricature.

 

14. Generation of contextual image-containing advertisements

United States Patent: 8,417,568

Inventors: Nong; Shuzhen, Li; Ying, Najm; Tarek, Li; Li, Chen; Zheng, Zeng; Hua-Jun, Zhang; Benyu, Li; Yin, Carignan; Dean, Xu; Ying-Qing

Abstract: According to embodiments of the invention, an advertisement-generation system generates image-containing advertisements. The advertisement-generation system includes: at least one feature-selection guideline that specifies at least one recommended feature for image-containing advertisements based on advertiser inputs that specify at least one of advertisement-target-audience information, cost information, and advertiser-industry information; an image-clip library from which images are selected for inclusion in the image-containing advertisements; and at least one advertisement template that is based on the at least one feature-selection guideline; wherein the system automatically generates image-containing advertisements that contain one or more suggested colors that are automatically suggested based on one or more colors present on a web page that will host the image-containing advertisement.

 

15. Non-linear beam tracing for computer graphics

United States Patent: 8,411,087

Inventors: Wei; Li-Yi, Liu; Baoquan, Yang; Xu, Xu; Ying-Qing, Guo; Baining

发明人:魏立一、刘宝权、杨旭、徐迎庆、郭百宁

Abstract: A non-linear beam tracing technique that supports full non-linear beam tracing effects including multiple reflections and refractions for computer graphics applications. The technique introduces non-linear beam tracing to render non-linear ray tracing effects such as curved mirror reflection, refraction, caustics, and shadows. Beams are allowed to be non-linear where rays within the same beam are not parallel or do not intersect at a single point. Such is the case when a primary beam bounces off of a surface and spawns one or more secondary rays or beams. Secondary beams can be rendered in a similar manner to primary rays or beams via polygon streaming. Beyond smooth ray bundles, the technique can also be applied to incoherent ray bundles which is useful for rendering bump mapped surfaces.

 

16. Rendering annotations for images

United States Patent 8,194,102

Inventors: Cohen; Michael, Luan; Qing, Drucker; Steven, Kopf; Johannes, Xu; Ying-Qing, Uyttendaele; Matthew

发明人:Cohen; Michael、栾青、Drucker; Steven、Kopf; Johannes、徐迎庆、Uyttendaele; Matthew

Abstract: Techniques are described for rendering annotations associated with an image. A view of an image maybe shown on a display, and different portions of the image are displayed and undisplayed in the view according to panning and/or zooming of the image within the view. The image may have annotations. An annotation may have a location in the image and may have associated renderable media. The location of the annotation relative to the view may change according to the panning and/or zooming. A strength of the annotation may be computed, the strength changing based the panning and/or zooming of the image. The media may be rendered according to the strength. Whether to render the media may be determined by comparing the strength to a threshold.

 

17. Sketch-based password authentication

United States Patent: 8,024,775

Inventors: Xu; Ying-Qing, Wen; Fang, Oka; Mizuki

发明人:徐迎庆、闻芳、Oka; Mizuki

Abstract: A graphical password authentication method is based on sketches drawn by user. The method extracts a template edge orientation pattern from an initial sketch of the user and an input edge orientation pattern from an input sketch of the user, compares the similarity between the two edge orientation patterns, and makes an authentication decision based on the similarity. The edge orientations are quantized, and each edge orientation pattern includes a set of quantized orientation patterns each corresponding to one of the quantized edge orientations. The number of quantized edge orientations, as well as other parameters such as the dimension of the final orientation patterns and acceptance threshold, can be optimized either globally or user-specifically.

 

18. Stylization of video

United States Patent: 7,657,060

Inventors: Cohen; Michael F., Xu; Ying-Qing, Shum; Heung-Yeung, Wang; Jue

发明人:Cohen; Michael、徐迎庆、沈向洋、王珏

Abstract: The techniques and mechanisms described herein are directed to a system for stylizing video, such as interactively transforming video to a cartoon-like style. Briefly stated, the techniques include determining a set of volumetric objects within a video, each volumetric object being a segment. Mean shift video segmentation may be used for this step. With that segmentation information, the technique further includes indicating on a limited number of keyframes of the video how segments should be merged into a semantic region. Finally, a contiguous volume is created by interpolating between keyframes by a mean shift constrained interpolation technique to propagate the semantic regions between keyframes.

 

19. Non-photorealistic sketching

United States Patent: 7,532,752

Inventors: Wen; Fang, Xu; Ying-Qing, Shum; Heung-Yeung, Vronay; David P.

发明人:闻芳、徐迎庆、沈向洋、Vronay; David P.

Abstract: A non-photorealistic technique is described for transforming an original image into a sketch image. The technique includes: segmenting the original image into plural regions to produce a segmented image, wherein the regions are demarcated by respective boundaries; shrinking a boundary of at least one of the plural regions in the segmented image to produce a boundary-shrunk image; and modifying at least one color in the boundary-shrunk image to produce the sketch image.

 

20. Caricature exaggeration

United States Patent: 7,483,553

Inventors: Xu; Ying-Qing, Shum; Heung-Yeung, Cohen; Michael, Liang; Lin, Zhong; Hua

发明人:徐迎庆、沈向洋、Cohen; Michael、梁林、钟华

Abstract: Caricature exaggeration systems, engines, and methods create a drawing of a facial image, compare relationships among facial features in the drawing to corresponding relationships in facial images and corresponding caricatures in a database, and automatically exaggerate at least one relationship among facial features in the drawing based on the facial images and the corresponding caricatures in the database.

 

21. System and method for image and video segmentation by anisotropic kernel mean shift

United States Patent: 7,397,948

Inventors: Cohen; Michael, Thiesson; Bo, Xu; Ying-Qing, Wang; Jue

发明人:Cohen; Michael、Thiesson; Bo、徐迎庆、王珏

Abstract: Mean shift is a nonparametric estimator of density which has been applied to image and video segmentation. Traditional mean shift based segmentation uses a radially symmetric kernel to estimate local density, which is not optimal in view of the often structured nature of image and more particularly video data. The system and method of the invention employs an anisotropic kernel mean shift in which the shape, scale, and orientation of the kernels adapt to the local structure of the image or video. The anisotropic kernel is decomposed to provide handles for modifying the segmentation based on simple heuristics. Experimental results show that the anisotropic kernel mean shift outperforms the original mean shift on image and video segmentation in the following aspects: 1) it gets better results on general images and video in a smoothness sense; 2) the segmented results are more consistent with human visual saliency; and 3) the system and method is robust to initial parameters.

 

22. Adaptive color schemes

United States Patent: 7,184,063

Inventors: Shum; Heung-Yeung, Xu; Ying-Qing, Ren; Qi

发明人:沈向洋、徐迎庆、任琦

Abstract: Techniques are described for adaptive changing a displayed foreground color when a conflict between the displayed foreground color and an extracted background color is detected. Upon detection of such a conflict, a new foreground color is selected in accordance with a predetermined legibility criterion. That is, a color pool candidate may be considered to be a viable foreground color if a legibility value for the candidate color in relation to the extracted background color exceeds a predetermined legibility threshold value.

 

23. Macrostructure modeling with microstructure reflectance slices

United States Patent: 7,129,944

Inventors: Guo; Baining, Lin; Stephen S., Shum; Heung-Yeung, Xu; Ying-Qing, Chen; Yanyun

发明人:郭百宁、林思德、沈向洋、徐迎庆、陈彦云

Abstract: A method and system for efficient synthesis of photorealistic free-form knitwear, where a single cross-section of yarn serves as the basic primitive for modeling entire articles of knitwear. This primitive, called the lumislice, describes radiance from a yarn cross-section based on fine-level interactions, including occlusion, shadowing, and multiple scattering, among yarn fibers. By representing yarn as a sequence of identical but rotated cross-sections, the lumislice can effectively propagate local microstructure over arbitrary stitch patterns and knitwear shapes. This framework accommodates varying levels of detail and capitalizes on hardware-assisted transparency blending. To further enhance realism, a technique for generating soft shadows from yarn is also introduced.

 

24. Placing feathers on a surface

United States Patent: 7,098,911

Inventors: Chen; Yanyun, Guo; Baining, Xu; Ying-Qing, Shum; Heung-Yeung

发明人:陈彦云、郭百宁、徐迎庆、沈向洋

Abstract: The present invention provides a computer implemented method for placing feathers on a surface. The method includes providing a surface having a plurality of vertices and establishing a growing direction for each of the plurality of vertices on the surface. Feathers are placed on the surface based on the plurality of vertices and the growing direction.

 

25. Interactive water effects using texture coordinate shifting

United States Patent: 6,985,148

Inventors: Liang; Lin, Chen; Yanyun, Xu; Ying-Qing, Guo; Baining, Shum; Heung-Yeung

发明人:梁林、陈彦云、徐迎庆、郭百宁、沈向洋

Abstract: A system and process for adding a photorealistic rendering of a body of water to a virtual 3D scene or image and creating a video therefrom having interactive water effects. A region of water is added to an image by adding an area depicting the original scene as it would appear if reflected by still body of water. Then, the appearance of the added water region is distorted over a series of image frames in such a way as to simulate how the reflected scene would look if the surface of the water were in motion. The water can have dynamic waves and the user can interact with the water in numbers of ways, including generating ripples on the water surface and creating rain. In addition, these effects can be achieved at full screen resolution with the use of the latest graphics hardware by employing a texture shifting technique.

 

26. Modeling and rendering of realistic feathers

United States Patent: 7,042,456

Inventors: Chen; Yanyun, Guo; Baining, Xu; Ying-Qing, Shum; Heung-Yeung

发明人:陈彦云、郭百宁、徐迎庆、沈向洋

Abstract: The present invention provides a systematic method for rendering feathers. In one aspect, a segment of a rachis having a first barb and second barb is generated. The first barb is generated based on a first barb length and the second barb is generated based on a second barb length.

 

27. Automatic sketch generation

United States Patent: 7,039,216

Inventors: Shum; Heung-Yeung, Xu; Ying-Qing, Chen; Hong

发明人:沈向洋、徐迎庆、陈洪

Abstract: An example-based facial sketch system and process that automatically generates a sketch from an input image depicting a person’s face. Sketch generation is accomplished by first training the system using example facial images and sketches of the depicted faces drawn with a particular style by a sketch artist. The trained system is then used to automatically generate a facial sketch that simulates the artist’s style from an input image depicting a person’s face. Nonparametric sampling and a flexible sketch model are employed to capture the complex statistical characteristics between an image and its sketch.

 

28. System and method for real-time texture synthesis using patch-based sampling

United States Patent: 6,762,769

Inventors: Guo; Baining, Liang; Lin, Shum; Heung-Yeung, Xu; Ying-Qing

发明人:郭百宁、梁林、沈向洋、徐迎庆

Abstract: The present invention involves a new system and method for synthesizing textures from an input sample. A system and method according to the present invention uses a unique accelerated patch-based sampling system to synthesize high-quality textures in real-time using a small input texture sample. The patch-based sampling system of the present invention works well for a wide variety of textures ranging from regular to stochastic. Potential feature mismatches across patch boundaries are avoided by sampling patches according to a non-parametric estimation of the local conditional Markov Random Field (MRF) density function.

 

29. Image synthesis by illuminating a virtual deviation-mapped surface

United States Patent: 6,674,918

Inventors: Liu; Wen-Yin, Zhong; Hua, Xu; Ying-Qing

发明人:刘文印、钟华、徐迎庆

Abstract: Methods and apparatus for synthesizing images from two or more existing images are described. The described embodiment makes use of an illumination model as a mathematical model to combine the images. A first of the images is utilized as an object color or color source (i.e. the foreground) for a resultant image that is to be formed. A second of the images (utilized as the background or texture) is utilized as a perturbation source. In accordance with the described embodiment, the first image is represented by a plane that has a plurality of surface normal vectors. Aspects of the second image are utilized to perturb or adjust the surface normal vectors of the plane that represents the first image. Perturbation occurs, in the described embodiment, by determining individual intensity values for corresponding pixels of the second image. The intensity values are mapped to corresponding angular displacement values. The angular displacement values are used to angularly adjust or deviate the surface normal vectors for corresponding image pixels of the plane that represents the first image. This yields a virtual surface whose normal vectors are not fully specified, but constrained only by the angles between the original surface normal vectors and the perturbed normal vectors. In the described embodiment, after some assumptions concerning the viewing and lighting source direction, an illumination model is then applied to the virtual surface to yield a resultant synthesized image.

 

30. Block-based synthesis of texture in computer rendered images

United States Patent: 6,593,933

Inventors: Xu; Ying-Qing, Shum; Heung-Yeung

发明人:徐迎庆、沈向洋

Abstract: A block-based texture synthesis technique synthesizes an image texture that matches the textural appearance of an image texture sample. The synthesis first selects blocks of texture information from the image texture sample and places or pastes the selected blocks in different locations in each tile of the tiled image texture according to a chaos transform. The image texture sample in each tile is the background on which the selected blocks are placed. Each block contains sufficient texture information such that the transformed texture retains the continuity of visual properties, such as shape, size, and color, of the image texture sample. The synthesis can also overlay image texture samples to accomplish the synthesis.

 

31. Virtual texture

United States Patent: 6,448,973

Inventors: Guo; Baining, Xu; Ying-Qing, Shum; Heung-Yeung

发明人:郭百宁、徐迎庆、沈向洋

Abstract: A structure that can be used to efficiently represent a virtual texture is disclosed. In one embodiment, a machine-readable medium has such a structure stored thereon, and includes a predetermined sample texture, and a predetermined global structure upon which the predetermined sample texture is to be overlaid in a predetermined manner. For example, a specific global structure is disclosed that includes a tiling encoding that describes a structure of a tiling, and a random block sequence that describes a predetermined number of random blocks within the sample texture that are to be pasted over the tiling to actualize the virtual texture. In such an instance, the sequence also describes locations where the blocks are to be pasted over the tiling. Also disclosed is that the structure can in some embodiments be utilized in texturing, such as procedural texturing.

教学

2018-2019学年:

  • 综合造型基础-1 (30806203-10),美术学院本科生
  • 综合造型基础(30800674-0),新雅书院本科生
  • 信息艺术与设计趋势(70800541-0),美术学院研究生
  • 科技与创新思维(80516801-0),经管学院EMBA
  • 信息技术前沿与设计应用(80801052-0), 美术学院研究生