10月11日上午,第二十九届媒体融合活动(ICTC2024)“智能媒体与智能传播”分论坛在杭州召开。论坛由中国广播电视社会组织联合会、中国广电网络股份有限公司主办,浙江传媒学院媒体工程学院、智能媒体浙江省工程研究中心承办。
浙江传媒学院媒体工程学院院长、教授俞定国在致辞中表示,近年来,以人工智能为代表的新技术快速发展,对媒体行业的发展产生重大影响,智能媒体和智能传播已成为当下行业的高频词汇。人工智能驱动的多模态计算,是目前智能媒体领域亟待解决的关键技术问题,深入探讨这一领域的前沿技术具有重大意义。目前,浙江传媒学院媒体工程学院建有全省影视媒体技术研究重点实验室、智能媒体浙江省工程研究中心、国家广电总局媒体智能传播技术研究实验室等3个省部级科研平台,以及国内首个“5G+4K”电竞综合实验室,拥有5G超高清视频技术、广电技术、广电通信、动画与数字技术等4个省级重点实验教学示范中心,为技术研发与人才培养提供了有力保障。
浙江大学求实特聘教授李玺以“多模态视觉结构学习”为主题,阐述了数据驱动的人工智能学习方法,并以人脸识别应用为例,对比了传统的识别技术与基于神经网络的识别技术的区别。其从目标视觉感知特性、视觉特征表达、深度学习器构建机制、高层语义理解等多维度视角进行了深入剖析,并引入了大规模多模态特征学习所涉及的主要研究问题和技术方法。
浙江工业大学计算机网络研究所副所长、教授孙国道作“多模态数据的智能可视分析”报告,提出围绕多模态数据的处理、表达和理解等基础理论方法,解决数据要素、可视表达和认知效率间的复杂映射关系构建,并应用于电子商务、安防监控、城市交通管理等领域,可视化技术在未来的发展中发挥关键性作用。
浙江广播电视集团融媒体技术中心副主任钱永江在“广电新质生产力的探索和思考”的主题报告中提出,从生成式人工智能、虚拟数字人、MR混合虚拟现实、智能生产、云播出、跨模态智能媒资6个技术方面,介绍了浙江广播电视集团利用人工智能技术,确保内容安全和高效率生产的案例,并以基于大模型的新闻内容生产为例,详细介绍了大模型在选题、脚本、文稿等环节的重要作用。
杭州电子科技大学计算机学院学术副院长、教授余宙指出多模态学习一直以来被看作是通用人工智能的基石,典型的多模块任务包括图文检索、视觉问答、视觉定位、视觉描述、扩模态生成等。多模态学习范式演进在任务层面呈现由“粗”到“细”,在模型层面呈现由“专”到“通”,在学习层面呈现由“训练”到“提示”的特性。在大模型技术主导的当今,仍有许多值得研究的课题,如多模态大模型的幻觉、模型的高效推理、大小模型协同机制等。
浙江传媒学院智能媒体研究院博士马小雨提出,超高清视频所提供的良好观看体验必须建立在存储传输资源充足、拍摄质量精良的基础上;超高清内容具有转码需求高、拍摄制作难度大的特点,相较于传统视频更易出现各类型画质损伤,对视频中心的服务质量保障带来挑战;通过语义-质量解耦的视觉信息质量评价方法,可以实现超高清视频服务质量的保障。
多模态+大模型,搭载“智能”的东风,可以想见,新质生产力将推动广电行业产生深刻变革。向“智”而行,大有可为。