新闻  |   论坛  |   博客  |   在线研讨会
Xilinx ZYNQ UltraScale+ MPSoC应用专栏系列连载[第三篇]写一篇简单需求
haoxingheng | 2019-05-13 01:20:59    阅读:1438   发布文章

Xilinx ZYNQ UltraScale+系列连载[第三篇]写一篇简单需求

                                              作者:hellopanda

离上篇博客发布已经有很长的时间了,请原谅楼主,一个是小Panda降临需要照顾,另一个是确实这段时间的工作太忙,拖到今天才开始动笔写第三篇。

做事情讲究个“谋定而后动”,做研发尤其如此,准备工作一定要做得充分了,需求一定要理解明确了,方可开始吭哧吭哧继续往下干。

楼主先准备以ZCU104为平台,实现一个视频处理和传输系统,算是熟悉ZYNQ UltraScale+ MPSoC器件。

总体要求是:设计一个图像采集、处理和传输系统,实时视频分辨率不小于4000×3000,帧率不小于30fps,视频可通过HDMI2.0(DP)接口本地实时显示。JPEG压缩的图片和H.265压缩后的视频存储在本地SATA盘中,实时码流可通过GigE Vision传输到主机。系统总体框架如下图1所示。

框架图.jpg

                                                                     1 系统总体框架

1 硬件平台

本阶段先使用ZCU104平台进行验证,CameraSFP接口通过FMC扩展板实现。

2 软件需求

软件包括PLPS两个部分,其中PL部分实现Camera IFISPEncoderGigE VisionHDMI2.0接口;PL部分运行Linux操作系统,使用QT图形界面,驱动DP显示和SSD存储。

2.1  PL部分

PL部分主要实现接口和算法。

2.1.1    相机接口(Camera IF

Camera IF硬件上通过FMC接口板接入,支持LVDSLVDS通道数不大于15对)、MIPI D-PHYMIPI C-PHY接入。Camera 分辨率不低于4000×3000,帧率不低于30fps8bit10bit12bit RawBayer)数据输入。

2.1.2   图像信号处理(ISP

本阶段ISP实现基本功能,主要包括:DemosaicCCM3ADpcGammaDenoiseEnhance等基本内容,ISP需保证对输入图像实时处理。

2.1.3   Encoder

Encoder主要有两部分,一个H.265视频流压缩,一个是JPEG静态图片压缩。H.265使用芯片内置的硬核,JPEG压缩通过逻辑实现。H.265至少保证4000×3000分辨率30fps实时压缩。

2.1.4    GigE Vision网络传输

GigE Vision采用10G光口传输,硬件在FMC扩展板上实现。GigE Vision可实时传输原始图像、ISP处理后的图像、H.265码流和JPEG静态图片,通过xml配置文件指定支持的源和格式。

2.1.5   HDMI2.0接口

基于GTH,符合HDMI2.0标准,显示原图或ISP后的图像,可叠加OSD

2.2  PS部分

PS部分运行Linux操作系统,运行QT叠加生成OSD

2.2.1   调度功能

PS需配置PL工作的各项参数,获取系统状态,运行3A算法的C部分。PS部分还需处理PL的各中断,以协同处理存储、显示等工作。

2.2.2  存储和显示

实现DPSATA驱动,存储和读出PL生成的视频流文件请求。运行QT,生成人机交互界面。

3总结

整个系统基于AXI4总线架构,SoC软件硬件协同处理,需要保证良好的可扩展性,以便扩展下一步的图像检测和识别算法、AI算法等。

*博客内容为网友个人发布,仅代表博主个人观点,如有侵权请联系工作人员删除。

参与讨论
登录后参与讨论
推荐文章
最近访客