昨天,芯片厂商联发科在其召开的2023峰会上正式宣布推出5G RedCap系列解决方案,包括M60调制解调器IP和T300芯片系列,面向穿戴设备、轻量级AR设备、物联网模组以及边缘AI设备等。T300系列的设备将于2024念上半年出样片,2024年下半年出商用产品。
据联发科新闻稿披露,T300是全球首个面向RedCap的单die射频片上系统解决方案,采用台积电6纳米工艺,在更加紧凑的PCB区域继承了单核Arm Cortex-A35。T300系列和M60调制解调器IP都支持3GPP R17标准,并大幅降低了功耗,与5G eMBB方案相比,功耗降低了70%,与4G LTE解决方案相比,功耗降低了75%。
一直以来,联发科也是RedCap的忠实支持者,推出RedCap解决方案,让市场有了一个新的选择。不过,笔者更关注的是联发科着重提出了面向增强现实(AR)设备,在当前很多企业大举进军AR领域的背景下,进一步扩展了RedCap应用场景。
同样的重视,不一样的应用侧重点
RedCap代表了5G中速率连接的主力,受到了产业界的高度重视,国内外移动通信产业链相关企业都积极推进RedCap部署。3GPP对于RedCap的用例研究中,主要提出了三类场景:
工业无线传感网:工业场景中海量的传感器,对于通信服务可靠性为99.99%,端到端时延小于100毫秒,参考带宽速率小于2 Mbps,并且设备大部分是静止的,电池至少能用几年。对于安全类相关传感器,时延要求达到5-10毫秒。
智慧城市视频监控:一些性价比较高的视频场景要求的带宽为2-4Mbps,时延小于500毫秒,可靠性在99%-99.9%之间;高一级的视频则需要7.5-25 Mbps的带宽。此类场景的业务模式以上行传输为主。
可穿戴设备:智能可穿戴应用的参考带宽为下行5-50Mbps,上行为2-5Mbps,峰值速率下行最高150Mbps、上行最高50Mbps,设备的电池应能使用数天(最多1-2周)。
过去一年多的时间中,国内外大量企业进行了RedCap测试,选取了多个场景验证,远远突破了3GPP定义的三大场景,为正式商用打下基础。不过,国内和海外的实验验证选取的场景似乎有一些差异,其中国内的场景选择更多聚焦于To B领域,而海外则开展了很多To C领域的探索。
以国内运营商的主要关注点为例,三大运营商在多次公开场合表示其在多个行业应用领域实现RedCap的验证,并形成专门的解决方案。
上月举行的中国5G发展大会上,中国移动对外发布Redcap 场景化解决方案,该解决方案覆盖电力、工业、视频监控、移动办公、智慧海域五大行业,这五大场景化解决方案目前已经支撑全国35个RedCap标杆项目测试验证及交付。
中国联通也在公开场合表示,通过RedCap专项攻关,中国联通正式发布了端网业协同一体化RedCap产品,在工业、电力、视频、车联网等4大优势场景实现全球首发商用部署验证,服务超过多个行业客户,落地项目分布在多个省份,取得了显著成效。
中国电信也提出其深入重点应用,持续挖掘RedCap的应用需求和场景适配能力,已经在电力、港口、钢铁、矿山、化工和智慧城市等领域进行了RedCap的应用场景验证,为重点应用的拓展奠定了基础。
可以看出,三家运营商对于RedCap应用场景的选择高度一致,尤其是在电力、工业、智慧城市视频监控等都作为重点聚焦领域,很少提及对于消费端的应用,AR应用更少。
例如,近日,中国联通宣布携手山东电力、华为等合作伙伴,在山东莱芜开展全城5G RedCap+电力硬切片商用部署,上线3220台RedCap电力终端,实现全国连接规模最大的RedCap商用部署。本次商用建成了全国规模最大的城市级硬切片5G专网,也是全国RedCap终端应用数量最多的项目,并创新使用5GtoB Suite数字化点位评估系统,实现基于电力业务体验的精准预测,创造了全国最快的业务部署上线纪录,标志着5G+智慧电网应用进入低成本、高安全、易部署的新阶段。
而反观海外的应用,消费类场景是海外厂商重点提及的RedCap测试验证的对象,尤其是在多个国家开展了RedCap用于AR的验证。
今年8月,美国运营商AT&T宣布在实验室和场外完成了美国首个RedCap数据通信测试,这次测试是基于AT&T 5G SA现网上进行的,测试是和诺基亚、联发科合作实施的,基于诺基亚的AirScale平台和联发科的RedCap测试平台完成的。其中,测试验证的一个重点领域就是针对AR眼镜的验证。
同样是8月,澳大利亚第二大运营商Optus在宣布与爱立信、联发科合作完成首个RedCap远程数据会话,该测试使用了爱立信为Optus提供的预商用RedCap软件。该运营商在其新闻稿中指出,此举为5G手表、健康监测器、增强现实(AR)设备、视频监控和其他智能设备的发展打开了大门。
此前,爱立信和联发科宣布两者完成在FDD和TDD频谱波段上执行了RedCap数据和5G语音呼叫验证,FDD的上行链路和下行链路使用不同的频带,而TDD上行链路和下行链路使用一个频带,在两者之间即时切换。验证工作包括一个FDD数据会话,下行链路的吞吐速度可以达到220 Mbps,上行链路达到74 Mbps;双方还合作进行了一个TDD数据会话,下行链路速度达到153 Mbps,上行链路速度达到13.5Mbps。这些验证中,双方均提及了验证结果被认为适用于消费级可穿戴设备、轻量级AR设备和工业传感器等设备。
同时,昨天召开的联发科2023峰会上,联发科和Meta宣布将携手研发用于AR眼镜的芯片产品,虽然双方未透露合作的细节,但对于轻量级AR芯片,联发科可能不会排除将其M60调制解调器和T300搭载进AR眼镜芯片中。
AR设备无线化趋势,5G有了用武之地
近年来,AR设备无线化趋势明显,毕竟没有人希望头戴一个AR设备还随时跟着一根数据线,大大限制活动范围。所以,针对AR设备的芯片向着轻量化演进。
此前,高通推出骁龙XR2平台,其中一个亮点是推动AR从有线走向无线,采用高通的Fast Connect技术,融合WiFi和蓝牙,使XR设备和手机或其他计算终端快速连接,减轻XR终端的复杂度。后来,高通又推出了骁龙XR2 Gen 2和AR Gen 1,其中骁龙AR1 Gen 1平台旨在为混合现实打造轻量级智能眼镜,通信方式是支持WiFi 7。Meta的Ray-Ban AR智能眼镜就是采用采用高通骁龙AR1 Gen 1平台。
高通层对外表示,AR眼镜通过WiFi实现近距离无线通信有着巨大的潜力,在此之后是5G连接的发展时期,当然通过WiFi进行本地连接的方式并不会因此淘汰,我们的愿景是,智能眼镜最终可以支持5G连接。
或许接下来5G RedCap将成为一些轻量级AR眼镜的选择,通过RedCap的无线能力,打破距离限制,实现AR设备随时随地可用。当然,AR眼镜就需要做的更为轻薄,实现无线分离式处理,即眼镜端通过传感器进行交互,包括定位、眼球追踪等,然后将交互数据通过低时延RedCap网络传给计算终端,计算终端结合上述数据实时处理渲染,将渲染后画面压缩,然后通过低时延RedCap传回眼镜端,眼镜端经过解码,最终在眼镜端显示出来,实现基于无线的分离式渲染。
和有线连接不同,基于5G RedCap的无线连接会产生不少潜在问题,典型的比如时延和干扰情况,这些可能会严重影响AR眼镜的观看和交互体验。有线模式是基下,带宽、时延等基本不用担心。当然,RedCap集成了5G低时延的原生优势,可以满足AR对空口的时延要求,但更有意义的是端到端时延,例如而应用到AR产品中端到端的时延若能控制在20ms,这样就能够有效保证XR产品对时延的运行标准。
当前,在苹果Vision Pro和其他大型互联网公司、消费电子公司发布带动下,XR市场迎来进一步迭代,其中AR产品市场空间进一步扩大。虽然此前业界都认为AR将是5G应用的一个重要领域,但AR设备对于重量、体积、功耗的极致要求,让复杂的5G技术无法支撑,而RedCap作为轻量版5G,在这些方面具有显著优势,例如联发科本次发布的RedCap方案相对5G eMBB功耗降低70%,PCB区域面积相对4G调制解调器缩小60%。RedCap若是能在轻量级AR设备落地,带来更轻薄、更低功耗的体验,则是5G在AR领域的一个里程碑式的突破,是真正实现5G在AR领域的应用。