您现在的位置是: 首页 > 驱动程序 驱动程序

dm642音频驱动程序

ysladmin 2024-05-28 人已围观

简介dm642音频驱动程序       大家好,今天我来为大家详细地介绍一下关于dm642音频驱动程序的问题。以下是我对这个问题的总结和归纳,希望能对大家有所帮助。1.程序跑飞是什么意思?2.可否在PC机上对视频流做实时压缩程序跑飞

dm642音频驱动程序

       大家好,今天我来为大家详细地介绍一下关于dm642音频驱动程序的问题。以下是我对这个问题的总结和归纳,希望能对大家有所帮助。

1.程序跑飞是什么意思?

2.可否在PC机上对视频流做实时压缩

dm642音频驱动程序

程序跑飞是什么意思?

       问题一:嵌入式程序的跑飞是什么意思? LZ您好,我正在学习单片机,以下是我的个人理解:

        程序跑飞,就是程序跑得跟设计想法完全不一样,而且单片机此时对于各种外接的设备(按键、显示屏、LED灯等等),还有之前程序中设置的外中断,计时器,串口中断等等本来应有的反应也彻底没有了,单片机进入了一个不可控的死机状态。比方说我现在写的程序,主程序正常的,但是一旦按了0号外中断,LCD1602显示屏上就出现了一串乱码,然后本来应该过一会儿中断程序完成退回主程序,恢复正常显示,结果等了几倍的相应时间也没反应,肯定是彻底死机了,对于这个我的老师就认定为程序跑飞了,不过跑飞其实是我们认定的,单片机不认为自己跑飞了,只要不是外部强电磁干扰引起的跑飞(工控现场的恶劣使用环境引起的),那么人家单片机可是按照我们写给它的程序兢兢业业地执行着呢,只是我们自己写错程序了,要是LZ也是正在学单片机,我们一起探讨下吧?另外,求采纳啊~~~ ^-^ 我也在百度上提了个问题,也是单片机的,一起探讨吧~

        问题二:程序跑飞一般是什么原因造成的 我是在DM642上做jpeg2000编解码的,先是调通了板子的VIVO,然后再把代码移植进去,编译通过,就是下载进去后跑不起来我的配置基本上都是在BOIS里面做的,cmd文件里面没写什么东西,能不能帮忙分析下大概是哪些原因导致程序跑步起来啊?谢了!

        忽略一切硬件因素,例如是电压不稳或者外部干扰等等问题。因为我这程序用keil软件仿真的时候PC指针都会都飞开,所以应该不关硬件的事。光从软件上看,怎么样的原因会使单片机跑飞呢?程序是用C写的,编译时keil没有报错,也没有warning。ram用了218B,flash用了16kB。

        用的芯片是SM5964,ram大小是256+768,flash是64k。按理来说都没超标,求大神解围!

        问题三:什么是跑飞? 程序(常见于单片机,DSP中)因编写问题没有按照作者意思运行而进入死循环或者毫无意义地乱运行.

        问题四:51单片机程序跑飞什么意思?怎么解决? 程序跑飞就是程序执行错误,程序不知道运行到哪里,这就需要设定标志位,寻找跑飞的地方,再改

        问题五:程序跑飞一般是什么原因造成的 原因很多啊

        1)程序没有结尾或不是循环的程序。

        2)nmi管脚没有上拉。

        3)在看门狗动作的时候程序会经常跑飞。

        4)程序编制不当也会引起程序跑飞。

        5)硬件系统有问题。

        问题六:程序跑飞一般是什么原因造成的 原因很多啊

        1)程序没有结尾或不是循环的程序。

        2)nmi管脚没有上拉。3)在看门狗动作的时候程序会经常跑飞。

        4)程序编制不当也会引起程序跑飞。

        5)硬件系统有问题。

        问题七:c语言程序跑飞的原因有哪些?指针? 跑飞指的是程序指针混乱,堆栈被破坏,跑飞算是程序运行问题中较严重的一类,对指针未初始化或未指向值就解引用常会引起跑飞

        如: struct AA

        {

        int i;

        char j;

        } *p;

        如未p = (AA *)malloc(sizeof(struct AA))等之类进行初始化就 使用p->i,j等就会使得程序跑飞

        问题八:程序跑飞是怎么回事? 10分 看看这两个吧,或许对你有用

        baike.soso/v4640480

        h触tp:/...15547/

        问题九:单片机程序跑飞 一种可能是硬件上抗干扰设计有缺陷。

        另一种可能是软件处理有问题,需要提供软件才能具体分析问题所在。

可否在PC机上对视频流做实时压缩

       3个可配置的视频端口(VPORT0-2)能够与通用的视频编、解码器实现无缝连接,支持多种视频分辨率及视频标准,支持RAW视频输入/输出,传输流模式;

       1个10/100Mb/s以太网接口(EMAC),符合IEEE 802.3标准;

       1个多通道带缓冲音频串行端口(McASP),支持I2S,DIT,S/PDIF,IEC60958-1,AES-3、CP-430等音频格式;

       2个多通道带缓冲串行端口(McBSP),采用RS232电平驱动;

       1个VCXO内插控制单元(VIC),支持音/视频同步;

       1个32位、66M赫兹、3.3V主/从PCI接口,遵循PCI2.2规范;

       1个用户可配置的16/32主机接口(HPI);

       1个16位通用输入/输出端口(GPIO);

       1个64位外部存储器接口(EMIF),能够与大多数异步存储器(SRAM、EPROM)及同步存储器(SDRAM,SBSRAM,ZBT SRAM,FIFO)无缝连接,最大可寻址外部存储器空间为1024MB;

       1个具有64路独立通道的增强型直接内存访问控制器(EDMA);

       1个数据管理输入/输出模块(MDIO);

       1个I2C总线模块;

       3个32位通用定时器;

       1个符合IEEE 1149.1标准的JTAG接口及子板接口等。

       视频压缩技术

       视频编码的基本原理

        视频图像数据有极强的相关性,也就是说有大量的冗余信息。其中冗余信息可分为空域冗余信息和时域冗余信息。压缩技术就是将数据中的冗余信息去掉(去除数据之间的相关性),压缩技术包含帧内图像数据压缩技术、帧间图像数据压缩技术和熵编码压缩技术。

        去时域冗余信息

        使用帧间编码技术可去除时域冗余信息,它包括以下三部分:

        - 运动补偿

        运动补偿是通过先前的局部图像来预测、补偿当前的局部图像,它是减少帧序列冗余信息的有效方法。

        - 运动表示

        不同区域的图像需要使用不同的运动矢量来描述运动信息。运动矢量通过熵编码进行压缩。

        - 运动估计

        运动估计是从视频序列中抽取运动信息的一整套技术。

        注:通用的压缩标准都使用基于块的运动估计和运动补偿。

        去空域冗余信息

        主要使用帧间编码技术和熵编码技术:

        - 变换编码

        帧内图像和预测差分信号都有很高的空域冗余信息。变换编码将空域信号变换到另一正交矢量空间,使其相关性下降,数据冗余度减小。

        - 量化编码

        经过变换编码后,产生一批变换系数,对这些系数进行量化,使编码器的输出达到一定的位率。这一过程导致精度的降低。

        - 熵编码

        熵编码是无损编码。它对变换、量化后得到的系数和运动信息,进行进一步的压缩。

        视频编码的基本框架(图)

        国际音视频压缩标准发展历程

        H.261

        H.261标准是为ISDN设计,主要针对实时编码和解码设计,压缩和解压缩的信号延时不超过150ms,码率px64kbps(p=1~30)。

        H.261标准主要采用运动补偿的帧间预测、DCT变换、自适应量化、熵编码等压缩技术。 只有I帧和P帧,没有B帧,运动估计精度只精确到像素级。支持两种图像扫描格式:QCIF和CIF。

        H.263

        H.263标准是甚低码率的图像编码国际标准,它一方面以H.261为基础,以混合编码为核心,其基本原理框图和H.261十分相似,原始数据和码流组织也相似;另一方面,H.263也吸收了MPEG等其它一些国际标准中有效、合理的部分,如:半像素精度的运动估计、PB帧预测等,使它性能优于H.261。

        H.263使用的位率可小于64Kb/s,且传输比特率可不固定(变码率)。H.263支持多种分辨率: SQCIF(128x96)、 QCIF、CIF、4CIF、16CIF。

        与H.261和H.263相关的国际标准

        与H.261有关的国际标准

        H.320:窄带可视电话系统和终端设备;

        H.221:视听电信业务中64~1 920Kb/s信道的帧结构;

        H.230:视听系统的帧同步控制和指示信号;

        H.242:使用直到2Mb/s数字信道的视听终端的系统。

        与H.263有关的国际标准

        H.324:甚低码率多媒体通信终端设备;

        H.223:甚低码率多媒体通信复合协议;

        H.245:多媒体通信控制协议;

        G.723.1.1:传输速率为5.3Kb/s和6.3Kb/s的语音编码器。

        JPEG

        国际标准化组织于1986年成立了JPEG(Joint Photographic Expert Group)联合专家小组,主要致力于制定连续色调、多级灰度、静态图像的数字图像压缩编码标准。常用的基于离散余弦变换(DCT)的编码方法,是JPEG算法的核心内容。

        MPEG-1/2

        MPEG-1标准用于数字存储体上活动图像及其伴音的编码,其数码率为1.5Mb/s。 MPEG-1的视频原理框图和H.261的相似。

        MPEG-1视频压缩技术的特点:1. 随机存取;2. 快速正向/逆向搜索;3 .逆向重播;4. 视听同步;5. 容错性;6. 编/解码延迟。MPEG-1视频压缩策略:为了提高压缩比,帧内/帧间图像数据压缩技术必须同时使用。帧内压缩算法与JPEG压缩算法大致相同,采用基于DCT的变换编码技术,用以减少空域冗余信息。帧间压缩算法,采用预测法和插补法。预测误差可在通过DCT变换编码处理,进一步压缩。帧间编码技术可减少时间轴方向的冗余信息。

        MPEG-2被称为“21世纪的电视标准”,它在MPEG-1的基础上作了许多重要的扩展和改进,但基本算法和MPEG-1相同。

        MPEG-4

        MPEG-4标准并非是MPEG-2的替代品,它着眼于不同的应用领域。MPEG-4的制定初衷主要针对视频会议、可视电话超低比特率压缩(小于64Kb/s)的需求。在制定过程中,MPEG组织深深感受到人们对媒体信息,特别是对视频信息的需求由播放型转向基于内容的访问、检索和操作。

        MPEG-4与前面提到的JPEG、MPEG-1/2有很大的不同,它为多媒体数据压缩编码提供了更为广阔的平台,它定义的是一种格式、一种框架,而不是具体算法,它希望建立一种更自由的通信与开发环境。于是MPEG-4新的目标就是定义为:支持多种多媒体的应用,特别是多媒体信息基于内容的检索和访问,可根据不同的应用需求,现场配置解码器。编码系统也是开放的,可随时加入新的有效的算法模块。应用范围包括实时视听通信、多媒体通信、远地监测/监视、VOD、家庭购物/娱乐等。

        JVT:新一代的视频压缩标准

        JVT是由ISO/IEC MPEG和ITU-T VCEG成立的联合视频工作组(Joint Video Team),致力于新一代数字视频压缩标准的制定。

        JVT标准在ISO/IEC中的正式名称为:MPEG-4 AVC(part10)标准;在ITU-T中的名称:H.264(早期被称为H.26L)

        H264/AVC

        H264集中了以往标准的优点,并吸收了以往标准制定中积累的经验, 采用简洁设计,使它比MPEG4更容易推广。H.264创造性了多参考帧、多块类型、整数变换、帧内预测等新的压缩技术,使用了更精细的分象素运动矢量(1/4、1/8)和新一代的环路滤波器,使得压缩性能大大提高,系统更加完善。

        H.264主要有以下几大优点:

        - 高效压缩:与H.263+和MPEG4 SP相比,减小50%比特率

        - 延时约束方面有很好的柔韧性

        - 容错能力

        - 编/解码的复杂性可伸缩性

        - 解码全部细节:没有不匹配

        - 高质量应用

        - 网络友善

        监控中的视频编码技术

        目前监控中主要采用MJPEG、MPEG1/2、MPEG4(SP/ASP)、H.264/AVC等几种视频编码技术。对于最终用户来言他最为关心的主要有:清晰度、存储量(带宽)、稳定性还有价格。采用不同的压缩技术,将很大程度影响以上几大要素。

        MJPEG

        MJPEG(Motion JPEG)压缩技术,主要是基于静态视频压缩发展起来的技术,它的主要特点是基本不考虑视频流中不同帧之间的变化,只单独对某一帧进行压缩。

        MJPEG压缩技术可以获取清晰度很高的视频图像,可以动态调整帧率、分辨率。但由于没有考虑到帧间变化,造成大量冗余信息被重复存储,因此单帧视频的占用空间较大,目前流行的MJPEG技术最好的也只能做到3K字节/帧,通常要8~20K!

        MPEG-1/2

        MPEG-1标准主要针对SIF标准分辨率(NTSC制为352X240;PAL制为352X288)的图像进行压缩. 压缩位率主要目标为1.5Mb/s.较MJPEG技术,MPEG1在实时压缩、每帧数据量、处理速度上有显著的提高。但MPEG1也有较多不利地方:存储容量还是过大、清晰度不够高和网络传输困难。

        MPEG-2 在MPEG-1基础上进行了扩充和提升,和MPEG-1向下兼容,主要针对存储媒体、数字电视、高清晰等应用领域,分辨率为:低(352x288),中(720x480),次高(1440x1080),高(1920x1080)。MPEG-2视频相对MPEG-1提升了分辨率,满足了用户高清晰的要求,但由于压缩性能没有多少提高,使得存储容量还是太大,也不适和网络传输。

        MPEG-4

        MPEG-4视频压缩算法相对于MPEG-1/2在低比特率压缩上有着显著提高,在CIF(352*288)或者更高清晰度(768*576)情况下的视频压缩,无论从清晰度还是从存储量上都比MPEG1具有更大的优势,也更适合网络传输。另外MPEG-4可以方便地动态调整帧率、比特率,以降低存储量。

        MPEG-4由于系统设计过于复杂,使得MPEG-4难以完全实现并且兼容,很难在视频会议、可视电话等领域实现,这一点有点偏离原来地初衷。另外对于中国企业来说还要面临高昂的专利费问题,目前规定:

        - 每台解码设备需要交给MPEG-LA 0.25美元

        - 编码/解码设备还需要按时间交费(4美分/天=1.2美元/月 =14.4美元/年)

        H.264/AVC

        H.264集中了以往标准的优点,在许多领域都得到突破性进展,使得它获得比以往标准好得多整体性能:

        - 和H.263+和MPEG-4 SP相比最多可节省50%的码率,使存储容量大大降低;

        - H.264在不同分辨率、不同码率下都能提供较高的视频质量;

        - 采用“网络友善”的结构和语法,使其更有利于网络传输。

        H.264采用简洁设计,使它比MPEG4更容易推广,更容易在视频会议、视频电话中实现,更容易实现互连互通,可以简便地和G.729等低比特率语音压缩组成一个完整的系统。

        MPEG LA吸收MPEG-4的高昂专利费而使它难以推广的教训,MPEG LA制定了以下低廉的H.264收费标准:H.264广播时基本不收费;产品中嵌入H.264编/解码器时,年产量10万台以下不收取费,超过10万台每台收取0.2美元,超过500万台每台收取0.1美元。低廉的专利费使得中国H.264监控产品更容易走向世界。

        监控中视频编码分辨率的选择

        目前监控行业中主要使用以下分辨率:SQCIF、QCIF、CIF、4CIF。

        SQCIF和QCIF的优点是存储量低,可以在窄带中使用,使用这种分辨率的产品价格低廉;缺点是图像质量往往很差、不被用户所接受。

        CIF是目前监控行业的主流分辨率,它的优点是存储量较低,能在普通宽带网络中传输,价格也相对低廉,它的图像质量较好,被大部分用户所接受。缺点是图像质量不能满足高清晰的要求。

        4CIF是标清分辨率,它的优点是图像清晰。缺点是存储量高,网络传输带宽要求很高,价格也较高。

        分辨率新的选择-528x384

        2CIF(704x288)已被部分产品采用,用来解决CIF清晰度不够高和4CIF存储量高、价格高昂的缺点。但由于704x288只是水平分辨率的提升,图像质量提高不是特别明显。

        经过测试,我们发现另外一种2CIF分辨率528x384,比704x288能更好解决CIF、4CIF的问题。特别是在512Kbps-1Mbps码率之间,能获得稳定的高质量图像,满足用户较高图像质量的要求。目前这一分辨率已被许多网络多媒体广播所采用,被广大用户所接受。比如杭州网通网上影院是采用512x384分辨率,在768k下能稳定地获得近似DVD的图像质量。

        监控中实现视频编码的最佳方式

        目前视频编码正处于一个技术日新月异的时期,视频编码的压缩性能在不断得到提升。

        在监控中主要使用ASCI和DSP两种方案。由于ASIC芯片的设计、生产周期过长,使它已跟不上视频编码的发展速度。而DSP芯片,由于它的通用设计,使它能实现各种视频编码算法,并且可以及时更新视频编码器,紧跟视频编码的发展速度。另外使用DSP芯片可以比ASIC更灵活的配置编码器,使编码器达到最佳性能。

        海康威视产品目前达到的技术水准

        海康威视产品采用最先进的H.264视频压缩算法和高性能的DSP处理器。

        强大的H.264视频压缩引擎使产品获得极高的压缩比、高质量的图像质量和良好的网络传输性能。高性能的DSP处理器能灵活的配置视频编/解码器:动态设置分辨率、帧率、码率、图像质量等;可以双码流输出,达到本地存储和网络传输分别处理的功能。

        使用TM130X DSP的产品,单个芯片能实时压缩一路以下分辨率的视频:SQCIF、QCIF、CIF、2CIF(PAL:704x288或528x384)。

        使用DM642 DSP的产品,单个芯片能实时压缩4路以下分辨率的视频:SQCIF、QCIF、CIF、2CIF(PAL:704x288或528x384)。单个芯片能实时压缩2路4CIF视频。

       电视节目制作数字网络化已成为大家关心的热点,其中重要的技术之一是数字视频压缩。运动图像专家组(MPEG)是ISO/IEC的一个工作组,负责开发运动图像、声频及其混合信息的压缩、解压缩、处理和编码表示方面的国际标准。MPEG已经制定了MPEG-1、MPEG-2和MPEG-4标准。MPEG-1和MPEG-2已广泛应用在多媒体工业,例如数字电视、CD、视频点播、归档、因特网上的音乐等等。MPEG-4主要用于64 kb/s以下的低速率音视频编码,以使用于窄带多媒体通信等领域。MPEG目前正在制定MPEG-7和MPEG-21。但M-JPEG、MPEG-2和DV三大压缩技术已占据着当今视频压缩技术的主要地位,呈现互不替代,激烈竞争,共同发展的状态。

       M-JPEG和DV均采用帧内压缩方式,压缩效率要比MPEG-2低。在低码率的时候,MPEG-2可以提供比M-JPEG高的压缩比而保持较好的图像质量;在要求高图像质量的时候(比如节目编辑和后期制作),MPEG-2与M-JPEG、DV的输出码率差别要小得多。电视台业务的多样性要求压缩标准能提供多种码率。可变码率(VBR)特性对电视台有效利用资源非常重要。MPEG-2可以通过改变GOP结构和DCT及霍夫曼编码的参数来调整输出码率;M-JPEG可以通过改变DCT及霍夫曼编码参数调节压缩比;DV格式因其应用特点,没有提供VBR。M-JPEG发展较早,在非线性视频编辑方面应用多年,软、硬件技术成熟,成本低廉,以目前硬件平台而言,平均比MPEG-2平台便宜5000美元左右。目前,M-JPEG、DV和MPEG-2三个标准各有长处,设备都获得了广泛使用。日本和北美大多用DV格式进行后期制作;EBU在1999年的D84、D85技术声明中推荐电视台在演播室使用50 Mb/s的纯I帧4:2:2P MPEG-2;而中国在广泛使用M-JPEG的同时热烈讨论MPEG-2 IBP格式的编辑。

       下面针对现今在电视台数字化网络中主要应用的两种视频压缩技术,即M-JPEG和MPEG-2做一下对比。最后对MPEG-7作简单概述。

       M-JPEG是针对活动图像而优化的JPEG压缩而称。而JPEG是针对一帧图像DCT变换来对图像数据进行压缩,通过对电视数字信号(4:2:2数据)的每一帧进行JPEG压缩。由于电视编辑、特技制作均需要以帧为基本单位,所以对以帧为单元进行压缩(帧内压缩)的M-JPEG格式被成功地用于数字视频系统,特别是数字非线性节目编辑系统。目前我国非线性编辑系统大都采用4:1 M-JPEG压缩,被认为是可以接受的广播级水平。当PAL制4:2:2数字信号采用4:1压缩时,其数据率是5 MB/s(40M b/s), 每小时视频节目占用18 GB存储空间。由于M-JPEG是帧内压缩方式,可以提供精确到帧的随机存取访问,不附带任何的访问延迟,能够实现精确到帧的节目编辑。 所谓MPEG-2压缩是根据运动图像相邻帧之间有一定的相似性原则,通过运动预测,参考前一帧图像与这一帧图像的相似情况,去掉与前一帧相似的冗余数据,而只记录这一帧与上一帧不同的数据,从而大大提高了视频数据的压缩效率,这种压缩方法也称为帧相关压缩。因为采用运动预测帧相关的压缩方式,针对视频压缩有很好的效果,在获得广播级数字视频质量的前提下,可以实现20:1的压缩效率,数据率可降至1 MB/s(8M b/s),一小时视频节目占用3.6 GB空间。数据存储空间利用率高,网络传输效率是M-JPEG系统的5倍以上。这给基于MPEG-2压缩视频的存储、传输、编辑、播出带来极大的好处,在存储方面可以大大节约存储体成本,并能引入各种类型的存储介质,如硬盘、光盘、数据磁带以及存储器芯片等。

       但由于MPEG-2格式只有一个完整的帧,即I帧,所以在电视需要帧精确地进行剪接时会带来一定的困难,需要硬件板卡或软件系统的支持。MPEG-2在压缩方面有帧内压缩和帧间压缩两种方式,使用三种类型的图像,即I帧、P帧和B帧。I帧使用帧内压缩,不使用运动补偿,提供中等压缩比。由于I帧不依赖其它帧,所以是随机存取的入点,同时是解码的基准帧。P帧根据前面的I帧或P帧进行预测,使用运动补偿算法进行压缩,压缩比要比I帧高。P帧是对B帧和后继P帧进行解码的基准帧。它本身有误差,会造成误差传播。B帧是基于内插重建的帧,它基于前后两个IP帧或PP帧,不传播误差。它使用双向预测进行压缩,提供更高的压缩比。目前各硬件板卡厂商正在抓紧开发,以解决基于MPEG-2的IBP帧编辑,目前国内很多公司如奥维迅、索贝、大洋已经用软件解决了IBP帧精确编辑的问题,使MPEG-2格式应用到电视节目的制作、传输、存储、播出,构架全电视台的数字化网络系统成为可能。

       1996年10月,运动图像专家组开始着手一项新的研究课题来解决多媒体内容描述的问题,即多媒体内容描述接口(简称MPEG-7)。MPEG-7将扩大现今在识别内容方面存在的能力限制,将包括更多的数据类型。MPEG-7的目标是支持多种音频和视觉的描述,包括自由文本、N维时空结构、统计信息、客观属性、主观属性、生产属性和组合信息。对于视觉信息,描述将包括颜色、视觉对象、纹理、草图、形状、体积、空间关系、运动及变形等。

       MPEG-7的目标是根据信息的抽象层次,提供一种描述多媒体材料的方法以便表示不同层次上的用户对信息的需求。以视觉内容为例,较低抽象层将包括形状、尺寸、纹理、颜色、运动(轨道)和位置的描述。对于音频的较低抽象层包括音调、调式、音速、音速变化、音响空间位置。MPEG-7的目标是支持数据管理的灵活性、数据资源的全球化和互操作性。

       对于未来的多媒体服务,必须将内容的表示和描述共同来考虑,也就是说,许多涉及内容表示的服务必须要首先处理内容描述。利用MPEG-7 描述可用的音视信息,大家就能快速找到我们想要的信息,可以更加自由的与多媒体内容交互及重新使用音视信息的内容,或以新的方式将这些内容的某些成分结合起来使用。

       编解码技术在过去十年中不断改进。最新的编解码技术(H.264/AVC与VC-1)代表着第三代视频压缩技术。为具体应用选择正确的编解码器并优化其实时实施仍然是一项巨大的挑战,最佳的设计必须权衡压缩效率及可用的计算能力。 ……

        视频压缩是所有令人振奋的、新型视频产品的重要动力。为具体应用选择正确的编解码器并优化其实时处理仍然是一项巨大的挑战。最佳的设计必须权衡压缩效率及可用的计算能力。此外,如何在计算能力有限的情况下获得最佳压缩效率也是一门大学问。

       数字视频的主要挑战在于原始或未压缩的视频需要存储或传输大量数据。例如,标准清晰度的 NTSC 视频的数字化一般是每秒 30 帧速率,采用 4:2:2 YCrCb 及 720×480,其要求超过 165Mbps 的数据速率。保存 90 分钟的视频需要 110GB 空间,或者说超过标准 DVD-R 存储容量的 25 倍。即使是视频流应用中常用的低分辨率视频(如CIF:352×288 4:2:0、30 帧/秒)也需要超过 36.5Mbps 的数据速率,这是 ADSL 或 3G 无线等宽带网络速度的许多倍。目前的宽带网可提供 1~10Mbps 的持续传输能力,显然数字视频的存储或传输需要采用压缩技术。

        视频压缩的目的是对数字视频进行编码——在保持视频质量的同时占用尽可能少的空间。编解码技术理论依据为信息理论的数学原理。不过,开发实用的编解码技术需要艺术性的精心考虑。

       压缩权衡

       在选择数字视频系统的编解码技术时需要考虑诸多因素。主要因素包括应用的视频质量要求、传输通道或存储介质所处的环境(速度、时延、错误特征)以及源内容的格式。同样重要的还有预期分辨率、目标比特率、色彩深度、每秒帧数以及内容和显示是逐行扫描还是隔行扫描。压缩通常需要在应用的视频质量要求与其他需求之间做出取舍。首先,用途是存储还是单播、多播、双向通信或广播?对于存储应用,到底有多少可用的存储容量以及存储时间需要多久?对于存储之外的应用,最高比特率是多少?对于双向视频通信,时延容差或容许的端到端系统延迟是多少?如果不是双向通信,内容需要在脱机状态提前完成编码还是需要实时编码?网络或存储介质的容错能力如何?根据基本目标应用,不同压缩标准以不同方式处理这些问题的权衡。

       另一方面是需要权衡编解码实时处理的成本。如 H.264/AVC 或 WMV9/VC-1等能够实现较高压缩比的新算法需要更高的处理能力,这会影响编解码器件的成本、系统功耗以及系统内存。

       ……

       标准对编解码技术的普及至关重要。出于规模经济原因,用户根据可承受的标准寻找相应产品。由于能够保障厂商之间的互操作性,业界乐意在标准方面进行投资。而由于自己的内容可以获得较长的生命周期及广泛的需求,内容提供商也对标准青睐有加。尽管几乎所有视频标准都是针对少数特定应用的,但是在能够适用的情况下,它们在其他应用中也能发挥优势。

       为了实现更好的压缩及获得新的市场机遇,ITU与 MPEG 一直在不断发展压缩技术和开发新标准。中国最近开发了一种称为 AVS 的国家视频编码标准,我们在后面也会做一介绍。目前正在开发的标准包括 ITU/MPEG 联合可扩展视频编码 (Joint Scalable Video Coding)(对 H264/ AVC 的修订)和MPEG 多视角视频编码 (Multi-view Video Coding)。另外,为了满足新的应用需求,现有标准也在不断发展。例如,H.264 最近定义了一种称为高精度拓展 (Fidelity Range Extensions) 的新模式,以满足新的市场需求,如专业数字编辑、HD-DVD 与无损编码等。

       …………视频压缩正在市场中催生数量日益增长的数字视频产品。采用数字视频压缩技术的终端设备范围广泛,从电池驱动的便携设备到高性能基础设备。

        数字视频的最佳处理器解决方案取决于具体的目标应用。TI 拥有可支持多种标准并满足主要设计及系统约束需求的各种 DSP。TI的解决方案范围广泛,其中包括低功耗 C5000 DSP与移动OMAP 应用处理器、高性能C6000 DSP 与视频优化的高性能 DM64x 和 DM644x 数字媒体处理器。

       德州仪器 (TI) 的DM 列处理器专门针对高端视频系统的需求而设计。该系列的最新处理器是功能强大的 DM6446[15],其采用了TI的达芬奇 (DaVinci)技术[16]。DM6446的双内核架构兼具DSP和RISC技术优势,集成了时钟频率达594MHz 的c64x+ DSP内核与ARM926EJ-S内核。新一代c64x+ DSP 是 TMS320C6000(tm) DSP 平台中性能最高的定 DSP,并建立在TI开发的第二代高性能高级VLIW架构的增强版之上。c64x+与前代C6000 DSP平台代码兼容。DM644x等可编程数字媒体处理器可以支持所有的现有业界标准以及采用单个可编程数字媒体处理器的专有视频格式。DM6446 还具有片上内存,包括一个2级高速缓存和众多具有视频专用功能的外设。DM6446 还包含一种视频/影像协处理器 (VICP),用于减轻相关算法(如:JPEG、H.264、MPEG4 与 VC-1)的 DSP 内核繁重的视频与影像处理负担,从而使更多的 DSP MIPS能够用于视频后处理或者其他并行运行等功能。

       压缩标准规定需要的语法与可用的工具,不过许多算法结果取决于具体实施情况。主要变量包括:比特率控制算法、单通道与多通道编码、I/B/P 帧比率、运动搜索范围、运动搜索算法、以及选用的个别工具与模式。这种灵活性允许我们在计算负载和改进质量之间做出不同取舍。显然所有编码器都可以采用或高或低的频率实现不同的视频质量水平。

       越来越多的视频压缩标准可以针对具体最终应用提供越来越高的压缩效率和越来越丰富的工具。另外,向网络化连接发展的趋势意味着许多产品越来越需要支持多种标准。多种标准和专有算法的流行也使我们难以选择单个标准,尤其是在硬件决策经常超前于产品部署的情况下。不仅如此,每个视频编码算法都提供丰富的工具与功能选择,以平衡压缩效率的复杂性。工具和功能的选择是与特定应用和用例息息相关的重复过程。由于必须支持的编解码器数量的增多以及针对具体解决方案和应用而对编解码器进行优化的选择范围更为广泛,因此在数字视频系统中采用灵活的媒体处理器是大势所趋。DM6446等数字媒体处理器可充分满足性能处理需求同时架构灵活,从而能够快速把新标准实施推向市场,其中包括:H.264、AVS 与 WMV9。我们可以在标准定义阶段实施算法并且保持软件算法与工具的更新,从而紧随标准大大小小的修改并且满足应用不断变化的质量需求。

       编辑词条

       /other/2004-10-15/1438441503.shtml

       好了,今天关于“dm642音频驱动程序”的话题就讲到这里了。希望大家能够通过我的讲解对“dm642音频驱动程序”有更全面、深入的了解,并且能够在今后的学习中更好地运用所学知识。