关于手机射频测试技术的分析
- 格式:doc
- 大小:33.50 KB
- 文档页数:5
CE和FCC认证中针对NFC频段的射频测试要求目前手机支付的主流方式为NFC与RFID。
其中以NFC技术实现移动支付的模式正得到越来越多的认可。
并且,我国相关部门、企业正在加速研究利用N FC技术实现手机支付,帮助中国手机用户实现手机支付的梦想。
中国通信标准化协会基于13.56MHz的NFC技术接口和协议已经草拟完成,正在报批过程中。
而工信部与中国人民银行也将成立联合工作组,尽快统一标准,确定最终采用何种移动支付方式。
NFC英文全称Near Field Communication,近距离无线通信。
是由飞利浦公司发起,由诺基亚、索尼等著名厂商联合主推的一项无线技术。
NFC由非接触式射频识别(RFID)及互联互通技术整合演变而来,在单一芯片上结合感应式读卡器、感应式卡片和点对点的功能,能在短距离内与兼容设备进行识别和数据交换。
这项技术最初只是RFID技术和网络技术的简单合并,现在已经演变成一种短距离无线通信技术,发展态势相当迅速。
现已有多个厂商推出了支持NF C技术的手机产品。
与RFID不同的是,NFC具有双向连接和识别的特点,工作于13.56MHz 频率范围,作用距离10厘米左右。
NFC技术在ISO 18092、ECMA340和E TSI TS 102 190框架下推动标准化,同时也兼容应用广泛的ISO14443 Ty pe-A、B以及Felica标准非接触式智能卡的基础架构。
NFC芯片装在手机上,手机就可以实现小额电子支付和读取其他NFC设备或标签的信息。
NFC的短距离交互大大简化整个认证识别过程,使电子设备间互相访问更直接、更安全和更清楚。
通过NFC,电脑、数码相机、手机、PDA等多个设备之间可以方便快捷地进行无线连接,进而实现数据交换和服务。
下面将主要针对手机中的NFC功能的CE及FCC这两大认证进行一个详细的介绍。
关于NFC的认证,CE标准为ETSI EN 300 330-1及ETSI EN 3 00 330-2。
双频段GSM/DCS移动电话射频指标分析2003-7-14[摘要]本文对GSM移动电话的射频指标进行了分析,并讨论了改进办法。
其中一些测试及提高射频指标的方法是从实践经验中总结出来的,有一定的参考价值。
第一部分对各射频指标作了简要介绍。
第二部分介绍了射频指标的测试方法。
第三部分介绍了一些提高射频指标的设计和改进方法。
1 射频(RF)指标的定义和要求1.1 接收灵敏度(Rx sensitivity)(1)定义接收灵敏度是指收信机在满足一定的误码率性能条件下收信机输入端需输入的最小信号电平。
衡量收信机误码性能主要有帧删除率(FER)、残余误比特率(RBER)和误比特率(BER)三个参数。
这里只介绍用残余误比特率(RBER)来测量接收灵敏度。
残余误比特率(RBER)的定义为接收到的错误比特与所有发送的的数据比特之比。
(2)技术要求●对于GSM900MHz频段接收灵敏度要求:当RF输入电平为-102dBm(分贝)时,RBER不超过2%。
测量时可测试实际灵敏度指标。
根据多款移动电话的测试结果来看:当RBER=2%时,若RF输入电平为-l09~-l07dBm,则接收灵敏度为优;若RF输入电平为-l07~l05dBm,则接收灵敏度为良好;若RF输入电平为-105~-l02dBm,则接收灵敏度为一般;若RF输入电平>-l02dBm,则接收灵敏度为不合格。
●对于DCSl800MHz频段接收灵敏度要求:当RF输入电平为-l00dBm,RBER不超过2%。
测量时可测试实际灵敏度指标。
根据多款移动电话的测试结果来看:当RBER=2%时,若RF输入电平为-l08~-105dBm,则接收灵敏度为优;若RF输入电平为-105~ -l03dBm,则接收灵敏度为良好;若RF输入电平为-l03~ -100dBm,则接收灵敏度为一般;若RF输入电平为>-l00 dB mm,则接收灵敏度为不合格。
1.2频率误差Fe、相位误差峰值Pepeak、相位误差有效值PeRMS(1)定义测量发射信号的频率和相位误差是检验发信机调制信号的质量。
射频电路测试技术与方法探讨随着通信领域的不断发展,射频电路已经逐渐成为了无线通信中不可或缺的一部分。
但是射频电路的测试技术与方法却一直是十分重要的一环,错误的测试方法不仅会导致不准确的测试结果,还会损害设备,因此在射频电路测试方面,我们需要对技术与方法有更深入的了解。
一、射频电路测试基础知识射频电路通常用于无线通信,它是指一种由射频信号微波组成的系统。
常见的射频电路主要包括前端芯片、射频功率放大器、天线等组件。
在射频电路测试中,需要考虑的重要参数主要有以下几个:1. 频率范围射频电路的频率范围通常包括了从几千赫兹到几千兆赫兹的全频段。
测试频率的选择需要根据被测试电路的频响特性来确定,通常可以选择两种测试方法——频率扫描法和恒功率测试法。
2. 功率范围射频电路通常会涉及到功率的测量,功率的单位是分贝(dB),测试功率的范围通常包括了从毫瓦到瓦的功率范围。
3. 带宽带宽通常指射频信号的传输带宽,测试时需要考虑到被测试电路的信号带宽和仪器的带宽匹配问题,以确保准确的测试结果。
二、射频电路测试的方法1. 矢量网络分析仪测试法矢量网络分析仪是一种可以测量射频网络参数的仪器。
它可以通过测量信号输入和输出之间的相位和幅值得到网络参数。
它不仅可以测量S参数,还可以测量其他各种网络参数,如功率、截止频率、阻抗匹配等。
使用矢量网络分析仪进行射频电路测试的优点是:(1)测量精度高(2)兼容性强(3)测试时间短(4)测试范围广2. 调谐法测试法调谐法测试法是一种非常直接有效的电路测试方法,它是通过改变电路的元件值来测试电路的响应特性。
这种方法需要有一定的先验知识,以便根据实验数据来调整电路元件的值,以获得所需的响应特性。
这种方法的优点是:测试数据准确、易于操作,并且不需要很高的仪器精度,但需要有一定的经验才能进行。
3. 直接度测试法直接度测试法是一种基于传输线上的电场强度和磁场强度的测试方法。
这种方法可以测量传输线的电阻、电抗、电感和电容等参数。
射频开关测试方案介绍
也许大家已经注意到,随着无线设备复杂性急剧增加,手机支持的频段数量也在不断增加。
从最开始的2个GSM频段,到现在的4个GSM频段,3个CDMA频段,5个UMTS频段和10个LTE频段。
未来,诸如5G New Radio等标准将继续增加无线设备的复杂性。
开关是射频前端模块(RF FEM)切换多个频段的关键元件,所以,我们今天要讨论的话题就是射频开关测试方法
典型射频前端模块
关于射频开关,这些你知道吗?
在一个典型的射频前端模块中,包括功率放大器(PA)、低噪放大器(LNA),多路器,收发开关和天线开关等。
开关的目的是实现收发机与天线信号之间的定向传播,将发射机信号耦合到天线,或者将天线信号耦合到接收机,并且将发射机信号与接收机进行隔离以避免接收机链路被发射机干扰。
因此在射频前端模块中的开关都必须满足很高的隔离度与很低的插入损耗等指标。
本文将针对射频开关芯片的方案,包括典型的测试项进行详细介绍,包括插入损耗、隔离度、开关时间、谐波、三阶交调点IP3等,并对实验室验证测试及量产测试分别使用方法进行解析。
射频开关测试项详解
使用传统仪器应对射频开关测试遇到了难题
插入损耗、隔离度测试→使用矢量网络分析仪VNA完成
开关时间、谐波测试→VNA配合其他仪器完成→测试成本增加
另外很多厂商在构建测试平台时不仅仅是只针对于射频开关芯片测试,经常还会考虑在这个测试平台上会覆盖其他芯片类型,如PA、LNA等,所以一个通用的、高复用度的测试平台是很多厂商在采购仪器时的重要考虑点。
引言随着移动通信的发展,5G将以可持续发展的方式,逐渐凭借高速率、低时延的体验,海量设备接入能力,高流量密度、高移动性等多种优势,进入社会各个角落,并逐渐实现人与事物的万物互联。
但5G技术越来越复杂化和多样化,超量的设备连接与超高速的速率对频谱资源也提出了更高的要求;未来在2G、3G和4G等模式的长期共存下,5G将不断发展成为一个多空口接入的融合系统。
在通信领域,针对这样一个复杂的射频信号进行测试是当下的热点话题。
本文将从3GPP规范入手,介绍一些关于FR1(Frequency Range 1,也称为sub6G;频率范围为450 MHz~ 6 GHz)的射频测试系列。
其中着重探讨TS 38.101-1/3射频系列测试规范、TS38.508与TS38.521-1/3终端一致性系列规范,并针对重要FR1射频参数进行详细解析。
另外,总结了射频测试的准备与注意事项,供测试工程师参考。
1 射频测试规范3GPP对协议法规都设有相应编码,而5G NR(新空口)系列的法规主要集中在38系列,其中TS为标准协议,TR为技术性报告或学术研究。
各组的标准协议按顺序,可依次分成:38.1系列(射频规范)、38.2系列(物理层规范)、38.3系列(空中接口规范)、38.4系列(接入网网口规范)、38.5系列(终端一致性规范)。
5G FR1射频常规的测试规范如表1 所示。
2 射频测试参数及测试要求除非特殊情况下,FR1的终端射频指标要求符合(在一个或多个)天线连接口的传导功率要求。
3GPP定义了单载波、载波聚合、EN-DC等情况,本节着重分析部分FR1射频参数的定义、测试目的及限值要求[1]。
2.1 输出功率(1)最大输出功率最大输出功率指5G终端在带宽内,发送任意载波的最大输出功率。
目前常见5G综测仪均可直读,测量时间至少为一个子帧。
5G终端支持多个功率等级的发送。
以目前常见的NR频段为例,各UE等级的最大输出功率限值如表2。
⼿机射频性能测试⽅法介绍⼿机射频性能空中测试⽅法介绍[摘要] 本⽂⾸先简单介绍了⼿机天线的特性和指标,然后对CTIA协会制定的OTA(空中测试)⽅法进⾏了介绍。
⼿机的⼀些关键指标(如辐射总功率TRP、全向接收灵敏度TIS、⼈体感应)的测试⽅法以及相关测试环境,在⽂中作了详细的描述。
本⽂所介绍的OTA测试⽅法,对于改进⼿机研发阶段的测试⽅法具有很好的参考价值,⽽且在某些国家(美国),OTA测试已经成为GSM⼿机的必测项⽬,我们的研发测试需增加相关的测试内容。
⼀、前⾔良好的射频性能对于⼿机在数字蜂窝⽹、PCS⽹络中的表现⾄关重要。
由于⼿机的体积⽇趋⼩巧,天线性能通常不得不做出牺牲。
在很⼩的空间范围以内,要实现天线在各频段的良好性能是⼀件困难的⼯作。
这也对测试提出了⼀个更⾼的要求:全⾯、精确的测试,可以客观评估⼿机在实际⽹络中的表现,并不断改进设计;⽽不正确的测试数据,会有误导研发的可能。
现阶段公司的研发测试⼿段以平板耦合器与塔型天线测试为主。
在这样的近场测试环境中,⼿机与测量天线之间的距离⼩于3倍波长,和实际⽹络环境差异较⼤;且操作中常常需要根据实际情况调整⼿机的摆放位置,测试数据的可再现性、重复性较差,研发、测试、质检易出现分歧。
实际上,在项⽬的不同阶段,测试的重点也应区分:1. 研发测试研发测试时间相对⽐较充裕,需要利⽤各种测试⼿段,提供更多、更全⾯的数据,对⼿机的射频性能做出准确、客观的评估,这对⼿机性能的不断改进⾮常重要,也是项⽬转产的重要依据;2. ⽣产测试⽣产测试的⽬的是关注产品性能的⼀致性。
射频测试⽅⾯,其任务是把性能低于正常⽔平的不良品检测出来,防⽌不良品流⼊市场;另外⽣产测试必须操作性强,简单迅速,不降低产能。
此时可以使⽤屏蔽盒内的平板耦合器进⾏测试:由射频性能已知的样机作为⾦机(Golden Sample),经试验后确定⼿机摆放位置和通过准则,不同型号的⼿机摆放位置和通过准则不⼀定相同。
手机射频性能空中测试方法介绍[摘要] 本文首先简单介绍了手机天线的特性和指标,然后对CTIA协会制定的OTA(空中测试)方法进行了介绍。
手机的一些关键指标(如辐射总功率TRP、全向接收灵敏度TIS、人体感应)的测试方法以及相关测试环境,在文中作了详细的描述。
本文所介绍的OTA测试方法,对于改进手机研发阶段的测试方法具有很好的参考价值,而且在某些国家(美国),OTA测试已经成为GSM手机的必测项目,我们的研发测试需增加相关的测试内容。
一、前言良好的射频性能对于手机在数字蜂窝网、PCS网络中的表现至关重要。
由于手机的体积日趋小巧,天线性能通常不得不做出牺牲。
在很小的空间范围以内,要实现天线在各频段的良好性能是一件困难的工作。
这也对测试提出了一个更高的要求:全面、精确的测试,可以客观评估手机在实际网络中的表现,并不断改进设计;而不正确的测试数据,会有误导研发的可能。
现阶段公司的研发测试手段以平板耦合器与塔型天线测试为主。
在这样的近场测试环境中,手机与测量天线之间的距离小于3倍波长,和实际网络环境差异较大;且操作中常常需要根据实际情况调整手机的摆放位置,测试数据的可再现性、重复性较差,研发、测试、质检易出现分歧。
实际上,在项目的不同阶段,测试的重点也应区分:1. 研发测试研发测试时间相对比较充裕,需要利用各种测试手段,提供更多、更全面的数据,对手机的射频性能做出准确、客观的评估,这对手机性能的不断改进非常重要,也是项目转产的重要依据;2. 生产测试生产测试的目的是关注产品性能的一致性。
射频测试方面,其任务是把性能低于正常水平的不良品检测出来,防止不良品流入市场;另外生产测试必须操作性强,简单迅速,不降低产能。
此时可以使用屏蔽盒内的平板耦合器进行测试:由射频性能已知的样机作为金机(Golden Sample),经试验后确定手机摆放位置和通过准则,不同型号的手机摆放位置和通过准则不一定相同。
整机射频的测试和天线特性密切相关,下文首先介绍天线的特性和指标。
EDGE手机射频测试方法1.概述本文依据51.010和45.005给出了工作在EDGE模式下的移动台所应遵循的射频测试指标。
本测试指标适用于:-GSM850/900 移动台功率等级E2 :标称输出功率27dBm-DCS1800/PCS1900 移动台功率等级E2:标称输出功率26dBm2.测试环境:进行RF测试的参考测试环境如下图所示:一般环境测试条件:处于一般环境温度和一般电压下的测试环境。
极限环境测试条件:处于极限环境温度和极限电压下的测试环境。
它是极限温度和极限电压的任意组合。
2.1 测试温度范围:一般环境温度:+15℃≤θ ≤+35℃极限环境温度:-10℃≤θ ≤+55℃2.2 测试电压范围:一般电压值:依移动台情况而定。
低电压值:对于锂电池:0.85 ⨯一般电压值; 对于镍氢电池:0.9 ⨯一般电压值。
所设电压值应不高于以上定义值。
高电压值:对于锂电池:同一般电压值;对于镍氢电池:同一般电压值所设电压值应不低于以上定义值。
3.测试信道的设置.4.传输条件由下表格定义:5. 发射机技术要求及测试方法5.1 相位误差和频率误差5.1.1 定义发射机的相位误差和频率误差是指测得的实际相位、频率与理论期望的相位,频率之差。
5.1.2 一致性要求a) MS载波频率误差应不大于1×10-7b) 每一个突发脉冲的RMS相位误差都不应超过5°c) 每一个突发脉冲的有用部分的相位最大峰值误差不超过20°5.1.3 测试方法仅对上行时隙EDGE MS 进行此项测试MS 通过RF电缆与测试设备(TE)相连。
根据通用呼叫建立程序建立一个分组通信。
TE指令MS以最多的时隙进行发射,在每个时隙内采用相同的功率控制等级。
对突发脉冲进行取样,得到其相位轨迹,将此相位轨迹与理论的相位轨迹相比较,从两条轨迹得出的回归线可以用来指示频率误差,而与此回归线的相应偏差便是测量的相位误差。
测试选用高中低各一个信道,在所有功率控制等级上进行测试。
GSM手机射频指标及测试之一5推荐1)频率误差定义发射机的频率误差是指测得的实际频率与理论期望的频率之差。
它是通过测量手机的I/Q信号并通过相位误差做线性回归,计算该回归线的斜率即可得到频率误差。
频率误差是唯一要求在衰落条件下也要进行测试的发射机指标。
测试目的通过测量发射信号的频率误差可以检验发射机调制信号的质量和频率稳定度。
频率误差小,则表示频率合成器能很快地切换频率,并且产生出来的信号足够稳定。
只有信号频率稳定,手机才能与基站保持同步。
若频率稳定达不到要求(±0.1PPm),手机将出现信号弱甚至无信号的故障,若基准频率调节范围不够,还会出现在某一地方可以通话但在另一地方不能正常通话的故障。
GSM频段选1、62、124三个信道,功率级别选最大LEVEL5;DCS频段选512、698、885三个信道,功率级别选最大L EVEL0进行测试。
GSM频段的频率误差范围为+90HZ——-90HZ,频率误差小于40HZ时为最好,大于40HZ小于60HZ时为良好,大于60HZ小于90HZ时为一般,大于90HZ时为不合格;DCS频段的频率误差范围为+180HZ——-180HZ,频率误差小于80HZ时为最好,大于80HZ小于100HZ时为良好,大于100HZ小于180HZ时为一般,大于180HZ时为不合格。
2)相位误差定义发射机的相位误差是指测得的实际相位与理论期望的相位之差。
理论上的相位轨迹可根据一个已知的伪随机比特流通过0.3GMSK脉冲成形滤波器得到。
相位轨迹可看作与载波相位相比较的相位变化曲线。
连续的1将引起连续的90度相位的递减,而连续的0将引起连续的90度相位的递增。
峰值相位误差表示的是单个抽样点相位误差中最恶略的情况,而均方根误差表示的是所有点相位误差的恶略程度,是一个整体性的衡量。
测试目的通过测试相位误差了解手机发射通路的信号调制准确度及其噪声特性。
可以看出调制器是否正常工作,功率放大器是否产生失真,相位误差的大小显示了I、Q数位类比转换器和高斯滤波器性能的好坏。
关于手机射频测试技术的研究摘要:随着社会的不断发展,居民的生活方式也在逐渐发生变化,而手机作为现阶段居民生活中必不可少的通信工具,对其进行射频测试技术的研究具有非常重要的意义。
通过对手机的接收灵敏度和发射频率进行研究,不仅可以为后期手机在研发新型功能时提供相应的基础数据,还可以有效的改善手机的使用效率和使用质量,因此,负责手机各项功能研发的工作人员及科研人员,必须要明确现阶段手机射频测试技术的重要性,并根据现阶段手机发射频率以及接收的灵敏度进行分析,探究出如何改善手机的使用质量。
基于此,本文通过对手机的接收灵敏度和发射频率及发射功率等进行相应的测试,探究如何对手机的使用功能进行改善。
关键词:手机;射频测试;灵敏度;技术引言:现阶段由于人们对手机的依赖性越来越强,所以如何使手机具有更好的使用质量,开发出手机的最新功能,是当前各个品牌手机研发人员关注的主要问题。
为了保证本品牌的手机能够在市场上更具竞争力,必须要针对手机的发射频率、发射功率以及接收的灵敏度等进行相关的测试,确保手机在实际使用过程中具有良好的使用质量,这样才能够在手机市场上占据重要的地位。
而手机作为通信工具,其主要作用是能够进行相关信息的传播,由于网络的不断发展壮大,人们在手机使用过程中对信息传播的速度要求越来越高,因此对其接收和发射的频率及相关灵敏度进行探究,是当前改善手机使用效率,提高手机使用质量的重要措施。
一、对手机接收灵敏度进行测试手机的接收灵敏度是现阶段对手机进行相关功能测试中重要的组成部分,如果手机的接收灵敏度出现了问题,不仅会导致手机的使用效率下降,还会影响手机的整体使用质量,所以必须要对手机的接收灵敏度进行相关测试,而接收灵敏度的重要影响因素为手机的射频模块,所以应该根据相应的科学技术对射频模块中的接收灵敏度,以及手机在不同功能使用过程中对灵敏度的要求进行相关的探究。
对于一般的智能手机而言,灵敏度大概在-102dbm,虽然在实际使用过程中可能会出现一定的误差,但是一般市场上的手机在使用过程中其误差都会保证在2.4%之内。
1. 什么是RF?答:RF 即Radio frequency 射频,主要包括无线收发信机。
2. 当今世界的手机频率各是多少(CDMA,GSM、市话通、小灵通、模拟手机等)?答:EGSM RX: 925-960MHz, TX:880-915MHz;CDMA cellular(IS-95)RX: 869-894MHz, TX:824-849MHz。
3. 从事手机Rf工作没多久的新手,应怎样提高?答:首先应该对RF系统(如功能性)有个系统的认识,然后可以选择一些芯片组,研究一个它们之间的连通性(connectivities among them)。
4. RF仿真软件在手机设计调试中的作用是什么?答:其目的是在实施设计之前,让设计者对将要设计的产品有一些认识。
5. 在设计手机的PCB时的基本原则是什么?答:基本原则是使EMC(电磁兼容性)最小化。
6. 手机的硬件构成有RF/ABB/DBB/MCU/PMU,这里的ABB、DBB和PMU等各代表何意?答:ABB是Analog BaseBand,DBB是Ditital Baseband,MCU往往包括在DBB芯片中。
PMU是Power Management Unit,现在有的手机PMU和ABB在一个芯片上面。
将来这些芯片(RF,ABB,DBB,MCU,PMU)都会集成到一个芯片上以节省成本和体积。
7. DSP和MCU各自主要完成什么样的功能?二者有何区别?答:其实MCU和DSP都是处理器,理论上没有太大的不同。
但是在实际系统中,基于效率的考虑,一般是DSP处理各种算法,如信道编解码,加密等,而MCU处理信令和与大部分硬件外设(如LCD等)通信。
8. 刚开始从事RF前段设计的新手要注意些什么?答:首先,可以选择一个RF专题,比如PLL,并学习一些基本理论,然后开始设计一些简单电路,只有在调试中才能获得一些经验,有助加深理解。
9. 推荐RF仿真软件及其特点?答:Agilent ADS仿真软件作RF仿真。
GSM手机射频指标及测试GSM(全球系统移动通信)手机是一种移动通信技术标准,它使用数字的、无线的通信方式,能够在全球范围内进行通信。
在实际应用中,GSM手机需要满足一定的射频指标,同时需要进行相应的测试来保证其正常运行。
本文将详细介绍GSM手机的射频指标以及相关测试。
GSM手机的射频指标包括发送功率、接收灵敏度、频谱纯净度、误码率等。
首先是发送功率,它指的是GSM手机在通话时发射的电功率。
根据GSM标准,GSM手机的最大发送功率应不超过2瓦,并且根据不同的环境需求可以进行相应的调整。
发送功率的测量主要通过功率传感器和功率计等设备进行。
接收灵敏度是指GSM手机在接收信号时所能接收到的最小电磁信号强度。
较高的接收灵敏度表明GSM手机可以在弱信号环境下保持通话质量,这对于用户在较远距离或信号不佳的地方使用手机非常重要。
接收灵敏度的测试主要依靠网路分析仪等专业仪器进行。
频谱纯净度是指GSM手机在发射信号时所产生的杂散频率、谐波等对其他无线设备造成的干扰程度。
频谱纯净度的测试是通过频谱分析仪等设备进行的,主要目的是确保GSM手机的发射信号不会对其他设备造成干扰,同时保证通信的稳定性。
误码率是指GSM手机在通信过程中所产生的误码比率。
误码率反映了GSM手机通话质量的稳定性,通常用10的负次方来表示。
误码率的测试主要使用误码率仪等设备进行,它们通过对接收到的信号进行分析,可以精确测量误码率。
为了确保GSM手机符合射频指标,需要进行一系列的测试。
这些测试主要包括发射功率、接收灵敏度、频谱纯净度、误码率等方面。
测试过程中需要使用到多种专业仪器,如功率传感器、功率计、网路分析仪、频谱分析仪、误码率仪等。
同时,测试应该覆盖不同的频率、功率、通话质量等条件。
根据测试结果,可以对GSM手机的射频性能进行评估,并根据需要进行相应的调整和改进。
总而言之,GSM手机的射频指标及测试是保证手机正常工作的重要环节。
通过对发送功率、接收灵敏度、频谱纯净度、误码率等指标进行测试,可以评估手机的性能,并依据测试结果进行相应的调整和改进。
关于手机射频测试技术的分析
摘要本文通过对于手机几点重要测试项目的分析和总结,让大家了解其他模块射频测试的相通之处,搞清楚其中任意的模块就能对其他的模块的测试做到完全的理解。
关键词手机射频;模块;测试
中图分类号tp2 文献标识码a 文章编号 1674-6708(2011)49-0207-01
手机作为人们常用的接收和发射的信息工具,已经成为人们日常生活的重要内容。
因此,对于手机的接收和发射功能的测试就显得尤其重要。
笔者本文主要从接收灵敏度的测试和发射功能的测试说起。
1 接收灵敏度的测试
对于手机的射频模块,接收机最主要参数就是灵敏度,所以专门针对各种模块的灵敏度测试技术分析如下:
gsm的灵敏度一般是-102dbm,此时的误码率要求是小于2.439%。
比如:cs1-cs4是gmsk的调制方式,而mcs5-mcs9是8psk的调制方式,同样的调制方式,其编码效率也是不同的,即mcs9比mcs5的编码效率是要高的。
当然,这些灵敏度测试只要一个能通过也就证明了射频通路没问题,其他的多是芯片性能的验证。
编码方式不同或者调制方式不同,其信息量不同,因此,其信噪比要求也是不同的,所以对于灵
敏度要求也是不同的。
首先,从蓝牙说起,蓝牙一共有3种调制方式,因此可知也有3种的灵敏度测试标准,就是gfsk、π/4-dqpsk和8dpsk。
此外蓝牙是tdd的系统,所以还有单多时隙的测试,如dh1-dh5的测试,规范要求是-70dbm的时候,误码率小于0.1%。
从以上的就能看出,gsm的cs1-cs4和bt的dh1、dm1、dh3、dm3等的编码方式,gprs的多时隙测试对应的是蓝牙的dh1、dh3、dh5、gmsk和8psk对应蓝牙的gfsk、π/4-dqpsk和8dpsk。
对于cmmb,地面增补网络的s波段的调制方式有bpsk、qpsk、16qam,卫星端的ku波段只有bpsk和qpsk。
由于我们多数cmmb接收机都是接收地面增补网络的信号,所以应该选用3种调制方式的信号源进行测试。
根据不同的调制方式及速率,有不同的灵敏度要求,现在手机及pad支持的分辨率已经达到了1080p,所以片源就可能从520i-1080p,数据速率肯定就会有很大的差别。
对于工作在2.4g的wifi,包含802.11b,g,n几种标准。
调制方式有bpsk、qpsk、16qam、64qam,速率也是从1m到几百兆。
同gsm一样,一种调制方式对应的是两种或者两种以上的速率,不是一种调试方式一种速率。
所以对应的灵敏度测试就有很多种。
比如,wifi可先测试最高速率,若达标其他就没必要测试。
对于td和wcdma的测试,首先就是td的灵敏度要求是-108dbm,
因为要考虑到tt即测试误差是+-0.7db,所以在-107.3以下就可以。
此外td规范里还提到了一个3.84mhz的灵敏度,这是一种目前还未被应用的标准,估计是为了对应w的fdd5m通信模式的tdd模式。
由于其带宽较宽,所以灵敏度规定为-105,不过它的带宽是应该等同于w的5m,但是噪底按1.6m的两倍即3db。
对于wcdma,各个频段对应的灵敏度从-103.7至-106.7不等。
可以说是从-114至-117不等,即功率较大的表示方式是基站下行总功率,包含很多信息,而功率较小的参考方式是这个用户的数据信道的功率。
而这个dpch的功率比ior的值为-10.3db.比较w
来看td的灵敏度,这个-108就是下行的信号总功率了,因为和数据信道的比默认为0db,所以td只有这一个标准。
最后对应于多频段的射频模块,灵敏度要求也是不同的。
比如gsm是4个频段,带宽200k,频率间隔200k。
td两个频段,带宽1.6m,频率间隔200k(附加信道的频率间隔为100k),wcdma的带宽常用1、2、5、8。
带宽是5m,频率间隔同td。
bt是2.4g一个频段,带宽1m频率间隔1m。
wifi我们多数还是只用2.4g,带宽5m,不过是根据其速率调整带宽,有20m或者25m 等。
5.8g用的较少。
cmmb是从474m-794m,频率间隔8m,带宽8m。
2 发射功率及发射频率的测试
对于手机发射机的测试,主是指发射功率和发射频率。
对于固定的通信系统,频率也就是固定的,整个链路的设计也都在这个频
率下完成的。
对于任何一种通信制式都是有频率误差要求的,虽然gps、cmmb只有接收,没有对频率误差的要求,但是gps接收的也是卫星信号,而cmmb同样也是要接收卫星或者地面中继的信号,这些发射设备还是有频率误差要求的。
比如,wcdma、td及gsm对于频率误差的要求都是0.1ppm,换算成频率大概是从85hz~210hz。
蓝牙单时隙要求是25khz,3及5个时隙要求是40khz。
wifi要求是25ppm,换算成频率是60k+。
在发射功率上,对于wcdma及td,最大功率要求都是24dbm,gsm的低频是33dbm,高频是30dbm。
低频edge是27dbm,高频edge 是26dbm。
edge功率较低是因为其采用的线性调制而作的功率回退,降低系统设计难度及保证两种调制方式下使用同一个pa。
蓝牙最大发射功率:分为3个等级:
class1:0dbm-20dbm;class2:-6dbm-4dbm;class3:0dbm,我们常采用的是class2。
wifi的最大功率要求是20dbm。
其实制约功率大小的,最主要的因素就是通信距离。
w、td、gsm通信距离都是在几公里,wifi的话应该是几十米,蓝牙就是在十米以内。
通过自由空间信号的损耗公式可知,32.45db+20lgd(km)+20lgf (mhz),按通信频率2g计算,如果要覆盖5km的距离,损耗大概是108db。
按基站发射功率是50w即47dbm计算的话,基站覆盖边缘在-61dbm。
不过实际应用环境比较复杂,比如室内应用,各种衰落,实际上信号要小很多,一般情况下手机接收到的信号是在
-80dbm左右。
参考文献
[1]张兴伟,等.常用手机射频维修软件使用手册.人民邮电出版社,2006.
[2]尹纪新.无线射频基础-无线通信测试工程师实用技术丛书.人民邮电出版社,2008.。