王立冬

2022/10/20-11:11 来源:

王立冬.png

个人简介

王立冬,中共党员,北京市先进工作者,现任北京广播电视台播出中心主任。曾承担北京广播电视台数字化、网络化、高清 / 超高清多个电视制播系统技术工程建设项目,获多项国家级科技创新奖;参加行业科研及标准;推动安全播出保障运维管理模式变革,取得好成绩;荣获全国技术能手、全国杰出广播影视科技工作者等荣誉称号。

获奖感言

非常有幸赶上了传媒行业飞速发展的时代,经历了数字化、网络化、高清 / 超高清、5G/AI 技术变革,感谢北京广播电视台多年的培养,参加新台址技术工艺系统建设和多个大型技术项目,得到锻炼和成长;感谢中国新闻技术工作者联合会,提供交流和推动传媒科技事业发展的平台;感谢各位行业同仁,在与你们学习和交流中,带给我启发、提升和帮助。

专访内容

1. 本行业传媒技术发展进程中的变化

当下在媒体融合发展过程中,从技术“跟跑”转变为技术“领跑”,推动媒体从“相融”到“深融”,带动传播形式和传播手段发生巨大转变。5G、超高清 4K/8K、云计算以及人工智能等重要技术加速融合发展,进一步推动了智能化媒体发展。目前 8K 跨越式发展突出带有“政策驱动,产业培育”的鲜明特征,在实现视频格式升级迭代的基础上,强有力地拉动了基础技术研发与应用。

基础视频图像处理技术迭代升级,多维度突破。信号域数字化转型,从模拟到数字,信号质量更加稳定;从标清到高清到 4K/8K 超高清,视频画面质量从六个方面大幅提升:分辨率从 2K 到 4K 到 8K,画面的层次感强;动态范围从SDR 到 HDR,显示亮度和范围扩展;帧率从 25P 到 50P,运动画面流畅度高;音频从环绕声到三维声,真实感知声场变化;色域空间从 BT.709 到符合超高清电视参数标准的BT.2020,逼真还原真实世界颜色;色深从 8bit 到 10bit 量化,精细呈现亮度灰阶层级。

电视节目生产系统颠覆性创新,节目制播系统从录像机对编到非线性编辑,单机孤岛工作站到规模化大型制播网络,到云平台建设。节目制播云平台架构也从早期的私有云、专属云到公有云。IP 化 SMPTE2110-20/22 标准逐步成为电视节目现场制作、播出传送环节的主流信号格式,有效解决了 4K/8K 高码率信号格式线缆繁多、线序复杂的难题。信号编码传输领域,压缩效率成倍增长,传输编码方式几经更迭,国有知识产权 AVS、AVS2、AVS3 的多代标准推出应用。新一代高质量、低延迟、轻量化编码格式在冬奥会 8K 现场转播、远程制作以及频道播出等环节发挥了重要作用,确保视觉无损的同时大幅节省传输带宽,取得了良好应用效果。

用户触达模式多样性变化。互联网视频占领了传播路径,移动互联网平台已经成为内容生产传播的主要阵地。随着云直播业务形态的不断成熟,基于 SRT/HLS 等传输协议的网络视频流正在逐步成为与传统广电信号格式等量齐观的主流技术标准。超高清自由视角和多视角技术已经实现大范围普及落地,不断增强用户的内容沉浸性、互动性体验。传统媒体加速转型势在必行,主力军挺进主战场,从聚焦中屏转向小屏、中屏、超大屏、VR/AR 穿戴设备等多方式分发兼顾。

2. 媒体融合进程中的一些技术思考和建议

在全媒体时代,技术赋能引领,以先进技术引领驱动融合发展,推动内容供给侧改革,把握媒体深度融合的深刻内涵。在技术架构优化的基础上,继续推动人工智能、IP 化应用走向深入,进一步扩大 4K/8K 高画质产能规模,提升多样态视觉呈现效果,以优质内容增强影响力、扩大传播力,提升竞争力。

提高人工智能应用效能,精准节目制作、系统智能监控、内容审核,扩大高质量的优质节目内容生产能力。人工智能深度学习应用于视频画质增强领域提供解决方案,采用多种手段提升画面质量,对于输入的低分辨率图片或者视频进行多倍率超分辨率处理,实时重建高清、超高清图片或视频,提升用户体验。利用深度学习技术对影像资料进行色彩修复、视频降噪 , 消除随机噪声干扰,智能识别并填补划痕、坏点损伤,重构影像高清画质。采用视频插帧、AI 色域拓展转换增强画质,将 2K/4K 高价值历史素材转换为 4K/8K 格式,达到符合电视播出标准的视觉效果,对产能形成有益补充;将 HLG 格式 4K/8K 精品节目批量转换为 HDR10 格式,提升手机、平板电脑等移动终端显示效果。

加快媒体行业 IP 化进程,借助 IT 行业化的快速发展,摩尔定律、CPU+GPU 资源利用、算法容器、智能自动化系统监控及运维,充分 IP 化技术带动广电行业技术发展。在视频编解码处理甚至现场制作等环节更多采用通用架构、通用设备,结合标准化接口,为多种异构人工智能视频处理算法和编解码算法提供基础支撑,根据不同业务场景、分发渠道画质要求、码率格式以及用户收视习惯,按需选择、灵活调用各类算法,提升应用效能。同时加速推进传统视音频系统(AV)与制作网络系统(IT)架构融合,利用网络切片技术实现安全隔离,依托同一基础网络支撑信号处理与文件处理两类不同业务;不断优化运维工具,提升全面 IP 化之后的可管可控和故障定位能力。

聚焦大数据技术应用,强化数据治理,在节目生产环节,依托节目资源的大数据更高效,在节目传播环节,千人千面更精准。把优质内容供给与受众需求结合起来,推动理念、内容、形式、方法、手段创新,推出适合移动传播和社交传播的产品。

3. 畅想未来媒体发展的趋势

首先,用户终端的发展方向,即是媒体的发展方向。当前,新兴媒体已成为内容制作领域的重要力量,媒体行业朝着碎片化,去中心化方向发展,而其本质在于移动终端、4G/5G通信网络以及软件技术的高速发展极大地降低了大众获得算力和数据的门槛。虽然泛娱乐化、泛生活化以及浅层科普题材的内容供给可能会继续当前的多元化和碎片化趋势,而高质量、精细化制作的精品媒体作品依靠持续辐射出的高价值仍然占据着无可替代的地位,并拥有穿越时空的旺盛生命力,成为传统媒体与优秀的新兴媒体合作的有力抓手。丰富的智能收视终端将成为 4K/8K、高新视频应用的重要平台,用户通过无处不在的移动入口,找到符合个性化需求的视频内容,以“投屏”方式欣赏超高清节目。

其次,AI 人工智能对传媒业产生深刻影响,从内容生产自动化,到智能分发精准化,画面质量评价提升,再到内容形态多样化和运营管理系统化,其业务流程和生态体系发生着翻天覆地的变化。人工智能技术应用范围从生产辅助工具、运维辅助工具演变为核心应用。人工智能视频处理能力成为云架构生产平台 PaaS 层不可或缺的组成部分,通过标准接口集成到各类业务应用当中,实际使用环节实现“一键式”操作、无需人工介入干预。人工智能技术还将与编解码技术进一步深度融合,显著优化编码效率和画面质量。AV-IT 融合架构逐步落地,初期采取“通用设备 + 专用接口板卡”的方式整合视音频系统与后期制作系统,实现基础资源统一调配和弹性伸缩。

随着虚拟现实技术、元宇宙渐进的过程,在电视节目现场制作环节,数字视频 + 大型 LED 屏幕将成为重要的节目呈现手段,XR 拓展现实技术逐步普及,后期前置成为现场制作主流模式;在后期制作环节,4K/8K 超高清内容与 VR/AR/XR 等高新视频实现共平台生产,甚至依托同一套技术平台支撑元宇宙业务应用。

总之,媒体的传播力与影响力是媒体发展的根本,传统媒体主动进行媒介融合,利用各种技术优势,打破思维定式,加强顶层设计,完善体制机制,充分利用或构建新媒体平台,围绕重点热点,推出融媒体精品,发挥主流媒体的核心优势。