当前位置:文档之家› Improving information extraction by modeling errors in speech recognizer output

Improving information extraction by modeling errors in speech recognizer output

Improving Information Extraction by Modeling Errors in Speech Recognizer Output

David D.Palmer The MITRE Corporation 202Burlington Road Bedford,MA01730 palmer@https://www.doczj.com/doc/f92612983.html,

Mari Ostendorf Electrical Engineering Dept. University of Washington

Seattle,WA98195

mo@https://www.doczj.com/doc/f92612983.html,

ABSTRACT

In this paper we describe a technique for improving the performance of an information extraction system for speech data by explicitly modeling the errors in the recognizer output.The approach combines a statistical model of named entity states with a lattice representation of hypothesized words and errors annotated with recognition con?dence scores.Additional re?nements include the use of multiple error types,improved con?dence estimation,and multi-pass processing.In combination,these techniques im-prove named entity recognition performance over a text-based baseline by28%.

Keywords

ASR error modeling,information extraction,word con?-dence

1.INTRODUCTION

There has been a great deal of research on applying nat-ural language processing(NLP)techniques to text-based sources of written language data,such as newspaper and newswire data.Most NLP approaches to spoken language data,such as broadcast news and telephone conversations, have consisted of applying text-based systems to the out-put of an automatic speech recognition(ASR)system;re-search on improving these approaches has focused on ei-ther improving the ASR accuracy or improving the text-based system(or both).However,applying text-based sys-tems to ASR output ignores the fact that there are funda-mental differences between written texts and ASR tran-scriptions of spoken language:the style is different be-tween written and spoken language,the transcription con-ventions are different,and,most importantly,there are er-rors in ASR transcriptions.In this work,we focus on the third problem:handling errors by explicitly modeling un-certainty in ASR transcriptions.

.

The idea of explicit error handling in information ex-

traction(IE)from spoken documents was introduced by

Grishman in[1],where a channel model of word insertions

and deletions was used with a deterministic pattern match-

ing system for information extraction.While the use of an error model resulted in substantial performance improve-

ments,the overall performance was still quite low,perhaps

because the original system was designed to take advan-

tage of orthographic features.In looking ahead,Grishman

suggests that a probabilistic approach might be more suc-

cessful at handling errors.

The work described here provides such an approach,but

introduces an acoustically-driven word con?dence score

rather than the word-based channel model proposed in[1].

More speci?cally,we provide a uni?ed approach to pre-

dicting and using uncertainty in processing spoken lan-

guage data,focusing on the speci?c IE task of identifying named entities(NEs).We show that by explicitly mod-

eling multiple types of errors in the ASR output,we can

improve the performance of an IE system,which bene?ts

further from improved error prediction using new features

derived from multi-pass processing.

The rest of the paper is organized as follows.In Sec-tion2we describe our error modeling,including explicit

modeling of multiple ASR error types.New features for

word con?dence estimation and the resulting performance

improvement is given in Section3.Experimental results

for NE recognition are presented in Section4using Broad-cast News speech data.Finally,in Section5,we summa-

rize the key?ndings and implications for future work. 2.APPROACH

Our approach to error handling in information extrac-

tion involves using probabilistic models for both informa-

tion extraction and the ASR error process.The component

models and an integrated search strategy are described in this section.

2.1Statistical IE

We use a probabilistic IE system that relates a word se-

quence to a sequence of information

states that provide a simple parse of the word sequence into phrases,such as name phrases.For

the work described here,the states correspond to dif-ferent types of NEs.The IE model is essentially a phrase

language model:

(1)

with state-dependent bigrams that model the types of words associated with a speci?c type of NE,and state transition probabilities that mix the Markov-like structure of an HMM with dependence on the previous word.(Note that titles,such as “Pres-ident”and “Mr.”,are good indicators of transition to a name state.)

This IE model,described further in [2],is similar to other statistical approaches [3,4]in the use of state depen-dent bigrams,but uses a different smoothing mechanism and state topology.In addition,a key difference in our work is explicit error modeling in the “word”sequence,as described next.

2.2Error Modeling

To explicitly model errors in the IE system,we intro-duce new notation for the hypothesized word sequence,

,which may differ from the actual word

sequence ,and a sequence of error indicator variables

,where when is an error and

when is correct.We assume that the hypothe-sized words from the recognizer are each annotated with

con?dence scores

where represents the set of features available for ini-tial con?dence estimation from the recognizer,acoustic or

otherwise.

t

t-1h h Figure 1:Lattice with correct and error paths.We construct a simple lattice from with “error”arcs indicated by -tokens in parallel with each hy-pothesized word ,as illustrated in Figure 1.We then ?nd the maximum posterior probability state sequence by summing over all paths through the lattice:

(2)

(3)

or,equivalently,marginalizing over the sequence .Equa-tion 3thus de?nes the decoding of named entities via the state sequence ,which (again)provides a parse of the word sequence into phrases.

Assuming ?rst that and encode all the information from about ,and then that the speci?c value occur-ring at an error does not provide additional information for

the NE states 1,we can rewrite Equation 3as:

For the error model,,we assume that er-rors are conditionally independent given the hypothesized word sequence and the evidence :

(4)

where is the ASR word “con?-dence”.Of course,the errors are not independent,which we take advantage of in our post-processing of con?dence estimates,described in Section 3.We can ?nd directly from the information ex-traction model,described in Section 2.1,but there is no ef?cient decoding algorithm.Hence we approximate

(6)

where is the number of different error words observed after in the training set and is trained by col-lapsing all different errors into a single label .Training this language model requires data that contains -tokens,which can be obtained by aligning the reference data and the ASR output.In fact,we train the language model with a combination of the original reference data and a dupli-cate version with -tokens replacing error words.

Because of the conditional independence assumptions behind equations 1and 4,there is an ef?cient algorithm for solving equation 3,which combines steps similar to the forward and Viterbi algorithms used with HMMs.The search is linear with the length of the hypothesized word sequence and the size of the state space (the product space of NE states and error states).The forward compo-nent is over the error state (parallel branches in the lattice),and the Viterbi component is over the NE states.

If the goal is to ?nd the words that are in error (e.g.for subsequent correction)as well as the named entities,then the objective is

(7)

(8)

which simply involves?nding the best path through the lattice in Figure1.Again because of the conditional independence assumption,an ef?cient solution involves Viterbi decoding over an expanded state space(the prod-uct of the names and errors).The sequence can help us de?ne a new word sequence that contains-tokens: if,and if.Joint error and named entity decoding results in a small degradation in named entity recognition performance,since only a sin-gle error path is used.Since errors are not used explicitly in this work,all results are based on the objective given by equation3.

Note that,unlike work that uses con?dence scores

as a weight for the hypothesized word in information re-trieval[5],here the con?dence scores also provide weights for explicit(but unspeci?ed)sets of alternative hypotheses.

2.3Multiple Error Types

Though the model described above uses a single error token and a2-category word con?dence score(correct word vs.error),it is easily extensible to multiple classes of errors simply by expanding the error state space.More speci?cally,we add multiple parallel arcs in the lattice in Figure1,labeled,,etc.,and modify con?dence esti-mation to predict multiple categories of errors.

In this work,we focus particularly on distinguishing out-of-vocabulary(OOV)errors from in-vocabulary(IV) errors,due to the large percentage of OOV words that are names(57%of OOVs occur in named entities).Looking at the data another way,the percentage of name words that are OOV is an order of magnitude larger than words in the“other”phrase category,as described in more detail in[6].As it turns out,since OOVs are so infrequent,it is dif?cult to robustly estimate the probability of IV vs. OOV errors from standard acoustic features,and we sim-ply use the relative prior probabilities to scale the single error probability.

3.CONFIDENCE PREDICTION

An essential component of our error model is the word-level con?dence score,,so one would expect that better con?dence scores would result in better error modeling performance.Hence,we investigated methods for improving the con?dence estimates,focusing speci?-cally on introducing new features that might complement the features used to provide the baseline con?dence esti-mates.The baseline con?dence scores used in this study were provided by Dragon Systems.As described in[7], the Dragon con?dence predictor used a generalized lin-ear model with six inputs:the word duration,the lan-guage model score,the fraction of times the word appears in the top100hypotheses,the average number of active HMM states in decoding for the word,a normalized acous-tic score and the log of the number of recognized words in the utterance.We investigated several new features,of which the most useful are listed below.

First,we use a short window of the original con?dence scores:,and.Note that the post-processing paradigm allows us to use non-causal features such as. We also de?ne three features based on the ratios of, ,and to the average con?dence for the document in which appears,under the assumption that a low con-?dence score for a word is less likely to indicate a word error if the average con?dence for the entire document

is also low.We hypothesized that words occurring fre-

quently in a large window would be more likely to be cor-

rect,again assuming that the ASR system would make er-

rors randomly from a set of possibilities.Therefore,we

de?ne features based on how many times the hypothesis word occurs in a window for ,10,25,50,and100words.Finally,we also use the relative frequency of words occurring as an error in the

training corpus,again looking at a window of around the current word.

Due to the close correlation between names and errors, we would expect to see improvement in the error mod-eling performance by including information about which words are names,as determined by the NE system.There-fore,in addition to the above set of features,we de?ne a new feature:whether the hypothesis word is part of a location,organization,or person phrase.We can deter-mine the value of this feature directly from the output of the NE system.Given this additional feature,we can de-?ne a multi-pass processing cycle consisting of two steps: con?dence re-estimation and information extraction.To obtain the name information for the?rst pass,the con?-dence scores are re-estimated without using the name fea-tures,and these con?dences are used in a joint NE and error decoding system.The resulting name information is then used,in addition to all the features used in the previ-ous pass,to improve the word con?dence estimates.The improved con?dences are in turn used to further improve the performance of the NE system.

We investigated three different methods for using the

above features in con?dence estimation:decision trees,

generalized linear models,and linear interpolation of the

outputs of the decision tree and generalized linear model.

The decision trees and generalized linear models gave sim-ilar performance,and a small gain was obtained by inter-polating these predictions.For simplicity,the results here use only the decision tree model.

A standard method for evaluating con?dence predic-

tion[8]is the normalized cross entropy(NCE)of the bi-

nary correct/error predictors,that is,the reduction in un-certainty in con?dence prediction relative to the ASR sys-tem error https://www.doczj.com/doc/f92612983.html,ing the new features in a decision tree predictor,the NCE score of the binary con?dence predic-tor improved from0.195to0.287.As shown in the next section,this had a signi?cant impact on NE performance. (See[6]for further details on these experiments and an analysis of the relative importance of different factors.)

4.EXPERIMENTAL RESULTS

The speci?c information extraction task we address in this work is the identi?cation of name phrases(names of persons,locations,and organizations),as well as identi-?cation of temporal and numeric expressions,in the ASR output.Also known as named entities(NEs),these phrases are useful in many language understanding tasks,such as coreference resolution,sentence chunking and parsing,and summarization/gisting.

4.1Data and Evaluation Method

The data we used for the experiments described in this paper consisted of114news broadcasts automatically an-

notated with recognition con?dence scores and hand la-beled with NE types and locations.The data represents an intersection of the data provided by Dragon Systems for the1998DARPA-sponsored Hub-4Topic,Detection and Tracking(TDT)evaluation and those stories for which named entity labels were available.Broadcast news data is particularly appropriate for our work since it contains a high density of name phrases,has a relatively high word error rate,and requires a virtually unlimited vocabulary. We used two versions of each news broadcast:a refer-ence transcription prepared by a human annotator and an ASR transcript prepared by Dragon Systems for the TDT evaluation[7].The Dragon ASR system had a vocabulary size of about57,000words and a word error rate(WER)of about30%.The ASR data contained the word-level con?-dence information,as described earlier,and the reference transcription was manually-annotated with named entity information.By aligning the reference and ASR transcrip-tions,we were able to determine which ASR output words corresponded to errors and to the NE phrases.

We randomly selected98of the114broadcasts as train-ing data,8broadcasts as development test,and8broad-casts as evaluation test data,which were kept“blind”to ensure unbiased evaluation results.We used the training data to estimate all model parameters,the development test set to tune parameters during development,and the evaluation test set for all results reported here.For all ex-periments we used the same training and test data.

4.2Information Extraction Results Table1shows the performance of the baseline informa-tion extraction system(row1)which does not model er-rors,compared to systems using one and two error types, with the baseline con?dence estimates and the improved con?dence estimates from the previous section.Perfor-mance?gures are the standard measures used for this task: F-measure(harmonic mean of recall and precision)and slot error rate(SER),where separate type,extent and con-tent error measures are averaged to get the reported result. The results show that modeling errors gives a signi?cant improvement in performance.In addition,there is a small but consistent gain from modeling OOV vs.IV errors sep-arately.Further gain is provided by each improvement to the con?dence estimator.

Since the evaluation criterion involves a weighted av-erage of content,type and extent errors,there is an upper bound of86.4for the F-measure given the errors in the recognizer output.In other words,this is the best perfor-mance we can hope for without running additional pro-cessing to correct the ASR errors.Thus,the combined error modeling improvements lead to recovery of28%of the possible performance gains from this scheme.It is also interesting to note that the improvement in identifying the extent of a named entity actually results in a decrease in performance of the content component,since words that are incorrectly recognized are introduced into the named entity regions.

5.DISCUSSION

In this paper we described our use of error modeling to improve information extraction from speech data.Our model is the?rst to explicitly represent the uncertainty in-herent in the ASR output word sequence.Two key in-Table1:Named entity(NE)recognition results using dif-ferent error models and feature sets for predicting con?-dence scores.The baseline con?dence scores are from the Dragon recognizer,the secondary processing re-estimates con?dences as a function of a window of these scores,and the names are provided by a previous pass of named entity detection.

NE

Scores SER none68.4

baseline46.1

baseline45.9 171.8

272.0

+secondary+names44.3

+secondary+names43.9 novations are the use of word con?dence scores to char-acterize the ASR outputs and alternative hypotheses,and integration of the error model with a statistical model of information extraction.In addition,improvements in per-formance were obtained by modeling multiple types of er-rors(in vocabulary vs.out of vocabulary)and adding new features to the con?dence estimator obtained using multi-pass processing.The new features led to improved con?-dence estimation from a baseline NCE of0.195to a value of0.287.The use of the error model with these improve-ments resulted in a reduction in slot error rate of14%and an improvement in the F-measure from68.4to73.4.

The integrated model can be used for recognition of NE’s alone,as in this work,or in joint decoding of NEs and errors.Since ASR errors substantially degrade NE recognition rates(perfect NE labeling with the errorful outputs here would have an F-measure of86.4),and since many names are recognized in error because they are out of the recognizer’s vocabulary,an important next step in this research is explicit error detection and correction.Pre-liminary work in this direction is described in[6].In ad-dition,while this work is based on1-best recognition out-puts,it is straightforward to use the same algorithm for lattice decoding,which may also provide improved NE recognition performance.

Acknowledgments

The authors thank Steven Wegmann of Dragon Systems for making their ASR data available for these experiments and BBN for preparing and releasing additional NE train-ing data.This material is based in part upon work sup-ported by the National Science Foundation under Grant No.IIS0095940.Any opinions,?ndings,and conclusions or recommendations expressed in this material are those of the author(s)and do not necessarily re?ect the views of the National Science Foundation.

6.REFERENCES

[1]R.Grishman,“Information extraction and speech

recognition,”Proceedings of the Broadcast News

Transcription and Understanding Workshop,pp.

159–165,1998.

[2]D.Palmer,M.Ostendorf,and J.Burger‘Robust

Information Extraction from Automatically

Generated Speech Transcriptions,”Speech

Communication,vol.32,pp.95–109,2000.

[3]D.Bikel,R.Schwartz,R.Weischedel,“An

Algorithm that Learns What’s in a Name,”Machine Learning,34(1/3):211–231,1999.

[4]Y.Gotoh,S.Renals,“Information Extraction From

Broadcast News,”Philosophical Transactions of the Royal Society,series A:Mathematical,Physical and Engineering Sciences,358(1769):1295–1308,2000.

[5]A.Hauptmann,R.Jones,K.Seymore,S.Slattery,

M.Witbrock,and M.Siegler,“Experiments in

information retrieval from spoken documents,”

Proceedings of the Broadcast News Transcription

and Understanding Workshop,pp.175–181,1998.

[6]D.Palmer,Modeling Uncertainty for Information

Extraction from Speech Data,Ph.D.dissertation,

University of Washington,2001.

[7]L.Gillick,Y.Ito,L.Manganaro,M.Newman,F.

Scattone,S.Wegmann,J.Yamron,and P.Zhan,

“Dragon Systems’Automatic Transcription of New TDT Corpus,”Proceedings of the Broadcast News

Transcription and Understanding Workshop,pp.

219–221,1998.

[8]M.Siu and H.Gish,“Evaluation of word con?dence

for speech recognition systems,”Computer Speech

&Language,13(4):299–319,1999.

固相萃取柱知识点

1、使用阳离子固相萃取柱前为什么要用甲醇和水活化 要是使用的是高聚物基质的阳离子柱,可直接上样,不用活化,要是使用的是硅胶基质的阳离子柱,活化是为了打开键合在硅胶上的碳基团链,使之充分发生作用,甲醇是为了与碳链互溶,用水过度是为了能和样品溶液相溶。 2、固相萃取技术原理及应用 一、固相萃取基本原理与操作 1、固相萃取吸附剂与目标化合物之间的作用机理 固相萃取主要通过目标物与吸附剂之间的以下作用力来保留/吸附的 1)疏水作用力:如C18、C8、Silica、苯基柱等 2)离子交换作用:SAX, SCX,COOH、NH2等 3)物理吸附:Florsil、Alumina等 2、p H值对固相萃取的影响 pH值可以改变目标物/吸附剂的离子化或质子化程度。对于强阳/阴离子交换柱来讲,因为吸附剂本身是完全离子化的状态,目标物必须完全离子化才可以保证其被吸附剂完全吸附保留。而目标物的离子化程度则与pH值有关。如对于弱碱性化合物来讲,其pH值必须小于其pKa值两个单位才可以保证目标物完全离子化,而对于弱酸性化合物,其pH值必须大于其pKa值两个单位才能保证其完全离子化。对于弱阴/阳离子交换柱来讲,必须要保证吸附剂完全离子化才保证目标物的完全吸附,而溶液的pH值必须满足一定的条件才能保证其完全离子化。

3、固相萃取操作步骤及注意事项 针对填料保留机理的不同(填料保留目标化合物或保留杂质),操作稍有不同。 1)填料保留目标化合物 固相萃取操作一般有四步(见图1): ? 活化---- 除去小柱内的杂质并创造一定的溶剂环境。(注意整个过程不要使小柱干涸) ? 上样---- 将样品用一定的溶剂溶解,转移入柱并使组分保留在柱上。(注意流速不要过快,以1ml/min为宜,最大不超过5ml/min)? 淋洗---- 最大程度除去干扰物。(建议此过程结束后把小柱完全抽干) ? 洗脱---- 用小体积的溶剂将被测物质洗脱下来并收集。(注意流速不要过快,以1ml/min为宜) 如下图1:

实验室建设仪器设备的管理与维护

实验室建设仪器设备的管理与维护 为了解决实验室设备管理中存在的使用人员对设备疏于养护,重使用、轻保养、缺维修档案的问题,今天的内容主要对检验机构实验室仪器设备从采购到使用维护等方 面的内容进行介绍,希望能对检测实验室设备管理提供一些参考建议。 试验设备是开展质量检测的物质基础之一。本文从设备采购期间的选型论证,到设备使用期间的养护维修两方面的角度,介绍了实验室仪器设备的管理与维护。 【检测试验设备的特点】 1、科技含量高,结构复杂 随着国家对产品质量要求的不断提高,检测技术也飞速发展,先进的仪器设备不断涌现,老设备不断升级、换代;同时,现代试验技术正在向着多学科交叉渗透、多学 科智能密集型方向发展。许多大型精密仪器设备是化学、机械、电子、光学、生物、 计算机等多学科智能的集中体现,如气质联用仪、原子吸收光谱仪等。。。 2、品种多、数量大 如,各种超声振荡仪、真空干燥箱、紫外可见分光光度计、光学显微镜、天平等。。。这类仪器单价低、品种多、数量大,适合基础检测任务,频繁使用导致老化,会给维修人员带来很大的工作量,难以及时修复,从而,影响检测。专业检测设备和 大型精密仪器设备台数少,但品种多,单价高,使用者需参加仪器厂商培训及检测操 作上岗培训,发生故障,只依靠本单位内的维修力量难以修复,必须联系厂家进行处理,这样势必造成维修周期长,维修价格高,延误检测任务的完成。。。 【主要存在的问题】

1、设备疏于养护 大多数化学检测设备都属于精密仪器,不但要求试验操作人员会使用,还要了解仪器的基本原理、使用注意事项、仪器的存放环境,这样仪器的故障率才会减少[1],例如,纺织实验室常见的单纱强力机、做剥离顶破试验使用的万能材料试验机,机械部 分的丝杠需经常上油保养,但在实际使用中,往往因为使用频率不高,疏于保养,还 有大量使用的光学仪器紫外-可见分光光度计属于光学精密仪器,光学镜片定位精准,存放环境要防尘防震防潮,对环境的要求保持室温15℃~35℃,无直射光,无强烈的震动或连续不断的微震动,无强磁场,相对湿度40%~80%,无腐蚀性气体,无引起紫外吸收的有机、无机气体,少灰尘。如果光学仪器存放在一般实验室,在潮湿的环 境下,镜面受潮而霉变。在有的实验室,存在将光学分析仪器靠近离心机或振荡器等 设备,以便操作人员在离心程序后,样品即可进行光学分析,但是光学分析仪器长期 在高速运转的仪器旁,镜片可能会被震掉或震碎。在维修过程中,发现诸如此类问题 较多,仪器管理稍不重视[2],对检测试验带来较大的影响,加大了维修人员的工作量及维修经费。 2、仪器缺维修档案 试验仪器在购置、安装、验收后进行正常使用,都要将相关材料归类进档,建立仪器档案。档案主要包括合同、使用说明书等技术资料,设备到达相应的院系后即应有 相应的仪器使用记录、保养记录、维修记录,但是,有时会形成“重购置,轻维修; 重使用,轻管理”,对于使用保养和维修记录不够重视。例如,超声振荡仪器在实验 室用得较多,在维修中发现,由于保养不当,操作者在使用后,未及时擦干溅出的水 或化学药物,腐蚀仪器的电路板,从而造成整个电路板更换,既延长了维修时间,又 耽误了使用,增加了费用。很多仪器维修过,因为维修时间紧,任务又多,往往疏于 对维修进行记录,既不利于统计使用率,也不便于新入职的维修人员故障查询和零部 件的更换,影响重复性故障或相关故障的维修效率。 3、老旧设备不能满足能力验证的要求 CNAS实验室的能力认证计划几乎每年都有不同的项目,通过实验室间比对检验本 单位的实力,通常情况下,实验室大型仪器因价格昂贵,通常在维护方面是重点对象,

常用固相萃取柱

常用固相萃取柱 HLB是英文"亲水-亲脂平衡"(hydrophilic-l;pophilicbalance)的缩写,它是. 一种新型的反相吸附剂,能同时表现出对亲水性化合物和亲脂性化合物的双重保留特性。 固相萃取柱产品和应用指南(SPE column)返回 提供VARIAN公司BondElut、Agilent公司AccuBond系列固相萃取柱,另可提供经济型国产萃取小柱及填料,并可根据用户需要订做 各种规格产品 1word格式支持编辑,如有帮助欢迎下载支持。

硅胶上键合乙基 500mg 500mg 1000mg 3ml 6ml 6ml 50 30 30 合物。500mg 500mg 1000mg 3ml 6ml 6ml 50 30 30 核酸碱,核苷,表面活化剂。容量:0.2毫当 量/克。 Phenyl 硅胶上键合苯基 100mg 200mg 500mg 500mg 1000mg 1ml 3ml 3ml 6ml 6ml 100 50 50 30 30 相对C18和C8,反相萃取,适合 于非极性到中等极性的化合物 Alumnia A (acidic) 酸性 PH ~5 100mg 200mg 500mg 500mg 1000mg 1ml 3ml 3ml 6ml 6ml 100 50 50 30 30 极性化合物离子交换和吸附萃取,如维生 素. Silica 无键合硅胶 100mg 200mg 500mg 500mg 1000mg 1ml 3ml 3ml 6ml 6ml 100 50 50 30 30 极性化合物萃取,如乙醇,醛, 胺,药物,染料,锄草剂,农药, 酮,含氮类化合物,有机酸,苯 酚,类固醇 Alumnia B (basic) 碱性 PH~8.5 100mg 200mg 500mg 500mg 1000mg 1ml 3ml 3ml 6ml 6ml 100 50 50 30 30 吸附萃取和阳离子交换。 Cyano(CN) 硅胶上键合丙氰基烷 100mg 200mg 500mg 500mg 1000mg 1ml 3ml 3ml 6ml 6ml 100 50 50 30 30 反相萃取,适合于中等极性的 化合物,正相萃取,适合于极性 化合物,比如,黄曲霉毒素,抗 菌素,染料,锄草剂,农药 ,苯 酚,类固醇。弱阳离子交换萃 取,适合于碳水化合物和阳离 子化合物。 Alumnia N (neutral) 中性 PH~6.5 100mg 200mg 500mg 500mg 1000mg 1ml 3ml 3ml 6ml 6ml 100 50 50 30 30 极性化合物吸附萃取。调节pH,阳和阴离。 子交换.适合于维生素,抗菌素,芳香油,酶, 糖苷,激素 Amino(NH2) 硅胶上键合丙氨基 100mg 200mg 500mg 500mg 1000mg 1ml 3ml 3ml 6ml 6ml 100 50 50 30 30 正相萃取,适合于极性化合物。 弱阴离子交换萃取,适合于碳 水化合物,弱性阴离子和有机 酸化合物。 Florisil 填料-硅酸 镁 100mg 200mg 500mg 500mg 1000mg 1ml 3ml 3ml 6ml 6ml 100 50 50 30 30 极性化合物的吸附萃取,如乙醇,醛,胺,药 物,染料,锄草剂,农药,PCBs,酣,含氮类化 合物,有机酸,苯酚,类固醇 固相萃取柱及填料(SPE column) 2word格式支持编辑,如有帮助欢迎下载支持。

实验室仪器设备管理办法

实验室仪器设备管理办法 1.0 目的 实验室的仪器设备是保证科研工作正常进行的物质条件。为做好本公司实验室仪器设备管理,特制定本办法。 2.0 适用范围 本制度适用于公司所属各部门。 3.0 职责 3.1 实验室仪器设备,实行“统一领导,分级管理”:技术部负责实验室仪器设备的管理工作,须指定专人管理本实验室的仪器设备。 3.2 实验室仪器设备管理工作的主要任务是:在仪器设备的立项、论证、采购、安装、验收、使用、维护直至报废的全过程中,要加强计划管理、技术管理和经济管理,做好日常管理,使仪器设备在整个寿命周期中充分发挥效益,保证科研工作的需要。 4.0 具体内容 4.1 总则 实验室仪器设备的管理,必须贯彻勤俭节约的方针,实行共享,减少不必要的重复,避免浪费,挖掘现有仪器设备的潜力,重视功能开发工作,不断提高仪器设备的使用能力。 4.2 设备的划分标准 4.2.1 能独立使用且使用年限在一年以上、使用过程中基本保持原有形态、单价在500 元以上的一般仪器设备及单价在800元以上的专用仪器设备列入固定资产管理范围。

4.2.2 单价在200元以上500 元以下的一般仪器设备及单价在200元以上800 元以下的专有仪器设备列入地低值仪器设备管理范围。 4.2.3 专用设备是指各种具有专门性能和专门用于的设备,包括各种各样仪器和机械设备等。 4.2.4 调拨、捐赠的仪器设备,符合上述规定的亦列入固定资产管理。 4.2.5 自制设备属固定资产的,应按需要的材料、配件成本和加工费计价,经技术部验收合格,按固定资产管理。 4.3 仪器设备的计划审批程序 4.3.1 经费预算,技术部在年度末根据科研、生产等实际需要,提前做出下一年度所需经费预算,报采购部汇总后统一向财务部递交仪器设备经费预算,最后由公司根据财力情况确定设备经费预算后,技术部开始编制下一年度设备计划。 4.3.2 仪器设备计划,设备预算计划经技术部审核通过并签字盖章后上交采购部,经总经理审核通过后,由采购部进行采购。 4.3.3 实验室大型精密贵重仪器设备在购置前必须进行可行性论证。实验室提出的申请计划中必须包括购置理由、效益预测、选型论证、公司内相同仪器设备台套数、安装和使用条件等。 4.3.4 仪器设备进入采购环节必须同时具备下列条件: (1)经过公司采购批准立项。 (2)设备经费、安装配套经费已全部落实。 (3)设备负责人明确。 (4)大型精密贵重仪器设备,必须做出可行性论证结论,填写统一规定的文件、表格,并经领导批准。 (5)自制设备,订购非标准设备,必须具备经过讨论且领导批准的正规的设 计图纸和完整的技术文件资料。

固液萃取

第十章固液浸取 第一节萃取原理 教学目标: 理解萃取过程和萃取原理。理解萃取分配定律的含义,掌握分配常数的计算公式。 掌握单级萃取、多级逆流萃取、多级错流萃取的物料流动过程。 教学重点: 萃取过程和萃取原理。理解萃取分配定律的含义,掌握分配常数的计算公式。 单级萃取、多级逆流萃取的物料流动过程。 教学难点: 萃取分配定律的含义,分配常数计算公式的具体应用。 教学内容: 一、萃取基本原理 1.萃取过程 如图10—1所示,假设一种溶液的溶剂A与另一个溶剂B互不相容,且溶质C在B中的溶解度大于在A中的溶解度,当将溶剂B加入到溶液中经振摇静臵后, 则会发生分层现象,且大部分溶质C转移到了溶剂B中。这种溶质从一种体系转移到另一个体系的过程称为萃取过程。

在萃取过程中起转移溶质作用的溶剂称为萃取剂,由萃取剂和溶质组成的溶液叫萃取液,原来的溶液在萃取后则称为萃余液。如果萃取前的体系是液态则称为液—液萃取,如果是固态则称为固——液萃取,又称固液浸取,如用石油醚萃取青蒿中的青蒿素就是典型的固液浸取实例。 2.萃取原理 物质的溶解能力是由构成物质分子的极性和溶剂分子的极性决定的,遵守“相似相溶”原则的,即分子极性大的物质溶于极性溶剂,分子极性小的物质溶解于弱极性或非极性溶剂中。例如,还原糖、蛋白质、氨基酸、维生素B 族等物质,其分子极性大,可溶于极性溶剂水中,而不溶解于非极性溶剂石油醚中。又如大多数萜类化合物的分子极性小,易溶于石油醚和氯仿等极性小的溶剂中,但不溶于水等极性强的溶剂。因此,同一种化合物在不同的溶剂中有不同的溶解能力。当一种溶质处于极性大小不相当的溶剂中时,其溶解能力小,有转移到相当极性的溶剂中去的趋势,假设这种极性相当的溶剂与原来的溶剂互不相溶,则绝大部分溶质就会从原来的相态扩散到新的溶剂中,形成新的溶液体系,即形成萃取液。 在萃取过程时,溶质转移到萃取剂中的程度遵守分配定律。指出,在其他条件不变的情况下,萃取过程达到平衡后,萃取液中溶质浓度与萃余液中溶质浓度的比值是常数,这个规律叫分配定律,常数0k 叫分配系数。如图10—2所示,在 进行第一次萃取时,设原料液中溶质的摩尔浓度为C,萃取相中溶质的摩尔浓度为X ,萃余相中溶质的摩尔浓度为Y ,则: 假设进行多次萃取才能将目的产物提取完,则进行第n 次萃取时,原料液中0 10--1X k Y ==萃取相()萃余相

固相萃取柱常见问题及对策 SPE问题

固相萃取柱常见问题及对策SPE问题

问题可能的原因解决方法 回收率低 柱活化条件不恰当 根据固定相的不同正确活化SPE小 柱 反相填料:甲醇、乙腈等,1倍柱管 体积或3倍柱床体积 正相填料:非极性有机溶剂如正己烷 等,1倍柱管体积或3倍柱床体积 离子交换填料:1倍柱管体积的甲醇、 乙腈或异丙醇等与水互溶的极性溶 剂。 样品溶剂对目标成分 的作用力比固定相强 选择对目标组分具有更强选择性的 SPE小柱; 调整样品溶剂的PH值,增加目标组 分在固定相中的作用力; 改变样品溶剂的极性,降低目标组分 在溶剂中的作用力。 清洗溶剂选择不当; 洗脱能力太强 使用正确的清洗溶剂; 选择洗脱能力更弱的溶剂载样时流速过快 重力自然载样或控制载样流速 ≤1ml/min SPE小柱太小 用更大规格的SPE小柱; 用选择性更强的SPE小柱; 用载样量更大的SPE小柱 洗脱前SPE小柱清洗 溶剂抽干不充分 充分抽干冲洗溶剂 洗脱不充分 增加洗脱剂的体积;增加洗脱剂的强 度;用更小规格的SPE小柱 洗脱时流速过快或过 慢 控制流速1-2ml/min 目标成分不能从SPE小柱上 洗脱固定相对目标组分选 择性太强 选择对被分析物保留较弱的小柱; 选择洗脱能力更强的洗脱溶剂。对酸 碱目标成分,调节洗脱剂的PH值,

减弱固定相对目标组分的选择性 SPE小柱规格太大 增加洗脱剂的用量;用更小规格的SPE小柱 洗脱剂用量不足增加洗脱剂 洗脱时流速过快或过 慢 控制流速1-2ml/min 洗脱剂洗脱能力太弱调节洗脱剂的PH值,提高溶剂对目标成分的洗脱能力(对酸、碱目标成 分); 改变洗脱液的极性,提高溶剂对目标 成分的洗脱能力 重现性差 上样前柱床干涸重新活化SPE小柱 超出小柱的载样能力 减小载样量,或用规格更大的SPE小 柱 载样过程流速过高 降低流速,重力自然载样或控制载样 流速≤1ml/min 清洗溶剂洗脱能力太 强 降低清洗溶剂洗脱强度洗脱流速过快 先让洗脱液渗透小柱,再对小柱抽真 空或加压,控制流速1-2ml/min 洗脱剂分两次加入洗脱剂用量不足 增加洗脱剂的用量或者用更小规格的 SPE小柱 干扰物清洗不 干净固定相对干扰物的选 择性太强 选择合适的清洗液,有选择性的将干 扰物清洗掉 选择对目标组分专属性更强的SPE 小柱 固定相残留的干扰物活化前先用洗脱剂清洗SPE小柱 操作过程流速 过低样品中含有过多的颗 粒物质 载样前过滤或离心样品溶液或改用溶 解能力更强的样品溶剂

实验室仪器设备管理办法

实验室仪器设备管理办法 实验室中有很多的精密的仪器,这些设备需要统一管理,但是很多人对实验室设备管理并不是很熟悉,本文就来带大家一起来了解一些关于实验室设备管理的小常识。 一、仪器设备的购置 需要购置仪器首先提出申请,报有关领导批准。调查供应商的资质、信誉、质量保证能力,了解产品的技术性能指标和使用情况,并建立供应商档案。 二、仪器设备的验收 按订货合同核对所到货物正确无误,仪器设备的合格证、使用说明书、维修保养手册、系统软件和备件清单齐全。根据仪器性能指标说明书制定相应的方法,按标准操作规程进行单机或系统进行实验,证明该仪器设备各项技术参数能达到规定要求。并保留测试的原始记录。 三.仪器设备的建档 仪器设备档案的基本内容如下:①仪器设备登记表,包括仪器的名称、制造商的名称、仪器型号、出厂编号、存放地点、生产日期、实验室使用日期;②随机技术文件,包括合格证、说明书、装箱单;③验收记录、仪器设备检定/校准合格证书、使用记录,维护保养记录,损坏、故障及维修情况和报废单等。 四、仪器设备的状态标识 仪器设备应有明显的标识表明其“检定/校准”状态,使仪器的状态一目了然,便于管理。

状态标识一般分为以下几种:①绿色标识,表明仪器设备具有正式计量检定合格证书和校准合格报告,处于正常使用状态。②黄色标识,表明仪器设备某些功能已经丧失,但检测工作所用功能正常,且经校准合格,处于使用状态。③红色标识,表明仪器设备已经损坏或经校准不合格,处于停用状态。 五.仪器设备的量值溯源 凡是属于强制检定范围的仪器设备,都应由指定的检定/校准机构进行检定,检定/校准合格后方可使用。 对于易变动、漂移率大,环境要求较为严格或使用较为频聚的仪器设备需考虑进行期间核查,通过期间核查,一旦发现产生偏离,要及时采取维修维护等措施,以保证检测数据的准确性。 期间核查的方法,一般可利用考核盲样、标准物质验证或加标回收的方法进行。对数据进行分析和评价,达到要求便可使用。 期间核查的时间,在两个周期检定日中间和出现可疑数据情况时进行期间核查,以确定仪器设备状态是否正常,核查人员应做好详细记录。 经过期间核查证明仪器设备有问题的必须进一步分析,如确定其性能不合格,仪器出现故障,应贴上停用标识,尽快对仪器进行维修,以免延误仪器的正常使用。 六.仪器设备的日常使用 大型精密仪器设备的操作者,必须经过适当的理论操作培训,培训合格后方可上岗,不经过培训的人员不准随意使用。

固相萃取柱

SPE固相萃取各个填料等的区别 CNWBOND Carbon-GCB(碳黑) 石墨化碳黑(CNWBOND Carbon-GCB)固相萃取小柱在萃取很多极性物质,如氨基甲酸酯和硫脲等农药,有着比C8或C18更高更稳定的回收率。有数据显示,石墨化碳黑SPE同时提取食品中超过200多种农残有很好的效果,如有机氯、有机磷、含氮以及氨基甲酸酯类农药等。Carbon-GCB石墨化碳黑由于其非多孔性,对样品的吸附不要求扩散至有孔区域,所以萃取过程非常迅速。此外,虽然其比表面积小于硅胶基质,对化合物的吸附容量却比硅胶大一倍有余。由于Carbon-GCB碳表面的正六元环结构,使其对平面分子有极强的亲和力,非常适用于很多有机物的萃取和净化,尤其适于分离或去除各类基质如地表水和果蔬中的色素(如叶绿素和类胡萝卜素)、甾醇、苯酚、氯苯胺、有机氯农药、氨基甲酸盐、三嗪类除草剂等。技术参数:目数120-400目,比表面积100 m2/g。 CNWBOND Coconut Charcoal(活性炭) 椰子壳活性炭专用于美国环保署EPA 521方法(饮用水中亚硝胺的检测)以及EPA 522方法(饮用水中1,4-二噁烷的检测)。 技术参数:目数80-120目。 CNWBOND Si (硅胶) CNWBOND Silica硅胶是极性最强的小柱,填料为酸洗硅胶,它通常从非极性溶剂中通过氢键相互作用提取极性化合物,然后再通过提高溶剂的极性来洗脱物质。 技术参数:粒径40-63μm,平均孔径60Å,未封尾。 CNWBOND Florisil PR 农残级弗罗里硅土同样适合于分离有机氯农残、胺类、多氯联苯(PCBs)、酮类以及有机酸等,粒径更大,满足EPA 608方法。 技术参数:目数60-100目。 CNWBOND Florisil(弗罗里硅土) 弗罗里硅土作为氧化镁复合的极性硅胶吸附剂(硅镁吸附剂),适合于从非极性基质中吸附极性化合物,如分离有机氯农残、胺类、多氯联苯(PCBs)、酮类以及有机酸等。 技术参数:目数100-200目,比表面积289 m2/g。

小学仪器设备日常保养与维护方法

小学仪器设备日常保养与维护方法 实验仪器的保养与维护是实验室管理工作的重要组成部分,搞好仪器的保养与维护,关系到仪器的完好率、使用率和实验教学的开出率,关系到实验成功率。因此,作为实验教师应懂得教学仪器保养与维护的一般知识,掌握保养与维护的基本技能。 仪器一旦吸附灰尘、污垢,不仅影响仪器的性能,缩短使用寿命,直接影响实验效果,而且影响美观和实验者的身心健康。仪器在使用或贮藏中都会沾上灰尘和污垢,做到以防尘防污为主,经常地除尘清洗是搞好仪器保养与维护的重要环节。 (一)除尘 灰尘多为带有微量静电的微小尘粒,常飘浮于空气中,随气流而动,遇物便附着其上,几乎无孔不入。灰尘附着在模型标本上会影响其色泽,运动部件上有灰尘会增大磨损,电器上有灰尘,严重者会造成短路、漏电,贵重精密仪器上有灰尘,严重者会使仪器报废。 清除灰尘的方法很多,主要应依灰尘附着表面的状况及其灰尘附着的程度而定。在干燥的空气中,若灰尘较少或灰尘尚未受潮结成块斑,可用干布拭擦,毛巾掸刷,软毛刷刷等方法,清除一般仪器上的灰尘;对仪器内部的灰尘可用皮

唧、洗耳球式打气筒吹气除尘,也可用吸尘器吸尘;对角、缝中的灰尘可将上述几种方法结合起来除尘。不过对贵重精密仪器,如光学仪器、仪表表头等,用上述方法除尘也会损坏仪器,此时应采用特殊除尘工具除尘,如用镜头纸拭擦,沾有酒精的棉球拭擦等。 在空气潮湿,灰尘已结成垢块时,除尘应采用湿布拭擦,对角、缝中的灰垢可先用削尖的软大条剔除,再用湿布试擦,但是对掉色表面、电器不宜用湿布拭擦。若灰垢不易拭擦干净,可用沾有酒精的棉球进行拭擦,或进行清洗。 (二)清洗 仪器在使用中会沾上油腻、胶液、汗渍等污垢,在贮藏保管不慎时会产生锈蚀、霉斑,这些污垢对仪器的寿命、性能会产生极其不良的影响。清洗的目的就在于除去仪器上的污垢。通常仪器的清洗有两类方法,一是机械清洗方法,即用铲、刮、刷等方法清洗;二是化学清洗方法,即用各种化学去污溶剂清洗。具体的清洗方法要依污垢附着表面的状况以及污垢的性质决定。下面介绍几种常见仪器和不同材料部件的清洗方法。 1.玻璃器皿的清洗 附着玻璃器皿上的污垢大致有两类,一类是用水即可清洗干净的,另一类则是必须使用清洗剂或特殊洗涤剂才能清洗干净的。在实验中,无论附在玻璃器皿上的污垢属哪一类,

常用固相萃取柱

常用固相萃取柱

常用固相萃取柱 HLB是英文"亲水-亲脂平衡"(hydrophilic-l;pophilicbalance)的缩写,它是. 一种新型的反相吸附剂,能同时表现出对亲水性化合物和亲脂性化合物的双重保留特性。 固相萃取柱产品和应用指南(SPE column)返回 提供VARIAN公司BondElut、Agilent公司AccuBond系列固相萃取柱,另可提供经济型国产萃取小柱及填料,并可根据用户需要订做 各种规格产品 填料含量容量包装应用范围填料含量容量包装应用范围 ODS(C18) 硅胶上键合十八烷基 100mg 200mg 500mg 500mg 1000mg 1ml 3ml 3ml 6ml 6ml 100 50 50 30 30 反相萃取,适合于非极性到中等 极性的化合物,比如,抗菌素, 巴比妥酸盐,酞嗪,咖啡因,药 物,染料,芳香油,脂溶性维生 素,杀真菌剂,锄草剂,农药,碳 水化合物,对羟基甲苯酸取代酯, 苯酚, 邻苯二甲酸酯,类固醇, 表面活化剂,茶碱,水溶性维生 素。 EVIDEXII 辛烷和阳 离子交换 树脂 200mg 400mg 3ml 6ml 50 30 Amphetamina/Methamphetamine、 PCP、 Benzoylecgonine、 Codeine/Morphine、 THC- COOH(Marijuana) Cctyl(C8) 硅胶上键合辛烷 100mg 200mg 500mg 500mg 1000mg 1ml 3ml 3ml 6ml 6ml 100 50 50 30 30 反相萃取,适合于非极性到中等 极性的化合物,比如,抗菌素, 巴比妥酸盐,酞嗪,咖啡因,药 物,染料,芳香油,脂溶性维生 素,杀真菌剂,锄草剂,农药,碳 水化合物,对羟基甲基酸取代酯, 苯酚,邻苯二甲酸酯,类固醇,表 SAX 硅胶上键 合卤化季 氨盐 100mg 200mg 500mg 500mg 1000mg 1ml 3ml 3ml 6ml 6ml 100 50 50 30 30 强阴离子交换萃取,适合于阴离子,有机酸,核酸, 核苷酸, 表面活化剂。容量:0.2毫当量/克。

实验室设备维护保养规范

1. 目的.................................................................................... 2 2. 范围.................................................................................... 2 3. 定义.................................................................................... 2 4. 职责与权限 (2) 5. 内容.................................................................................... 2 可程式恒温恒湿箱维护保养表 (2) 高低温冷热冲击箱维护保养表 (3) 高温烤箱维护保养表 (3) 电线弯曲试验机维护保养表 (3) 扫频振动试验机维护保养表 (4) 静电试验仪维护保养表 (4) 雷击浪涌试验仪维护保养表 (5) 盐雾试验仪维护保养表 (5) 灼热丝试验仪维护保养表 (5) 老化车维护保养表 (5) 插拔寿命试验仪维护保养表 (6) 水平垂直燃烧试验仪维护保养表 (6) TEST SYSTEM维护保养表 (7) 射线荧光光谱仪维护保养表………………………………………………………………………………… 7 测试治具维护保养表 (7) 单冀跌落试验仪维护保养表 (8) 常用仪器维护保养表 (8) 6.备注……………………………………………………………………………………………………………… 8 7.记录表单 (8) 8.附

【精品】常用固相萃取柱

【关键字】精品 常用固相萃取柱 HLB是英文"亲水-亲脂平衡"(hydrophilic-l;pophilicbalance)的缩写,它是. 一种新型的反相吸附剂,能同时表现出对亲水性化合物和亲脂性化合物的双重保留特性。 固相萃取柱产品和应用指南(SPE column)返回 提供VARIAN公司BondElut、Agilent公司AccuBond系列固相萃取柱,另可提供经济型国产萃取小柱及填料,并可根据用户需要订做 各种规格产品

Ethyl(C2) 硅胶上键合乙基 100mg 200mg 500mg 500mg 1000mg 1ml 3ml 3ml 6ml 6ml 100 50 50 30 30 相对C18和C8,因为短链,保 持作用小的多,适合非极性化 合物。 SCX 100mg 200mg 500mg 500mg 1000mg 1ml 3ml 3ml 6ml 6ml 100 50 50 30 30 强阳离子交换萃取,适合于阳离子,抗菌素,药 物,有机碱 ,氨基酸,儿茶酚胺,锄草剂,核酸 碱,核苷,表面活化剂。容量:0.2毫当量/克。 Phenyl 硅胶上键合苯基 100mg 200mg 500mg 500mg 1000mg 1ml 3ml 3ml 6ml 6ml 100 50 50 30 30 相对C18和C8,反相萃取,适合 于非极性到中等极性的化合物 Alumnia A (acidic) 酸性 PH ~5 100mg 200mg 500mg 500mg 1000mg 1ml 3ml 3ml 6ml 6ml 100 50 50 30 30 极性化合物离子交换和吸附萃取,如维生素. Silica 无键合硅胶 100mg 200mg 500mg 500mg 1000mg 1ml 3ml 3ml 6ml 6ml 100 50 50 30 30 极性化合物萃取,如乙醇,醛, 胺,药物,染料,锄草剂,农药, 酮,含氮类化合物,有机酸,苯 酚,类固醇 Alumnia B (basic) 碱性 PH~8.5 100mg 200mg 500mg 500mg 1000mg 1ml 3ml 3ml 6ml 6ml 100 50 50 30 30 吸附萃取和阳离子交换。 Cyano(CN) 硅胶上键合丙氰基烷 100mg 200mg 500mg 500mg 1000mg 1ml 3ml 3ml 6ml 6ml 100 50 50 30 30 反相萃取,适合于中等极性的 化合物,正相萃取,适合于极性 化合物,比如,黄曲霉毒素,抗 菌素,染料,锄草剂,农药 ,苯 酚,类固醇。弱阳离子交换萃 取,适合于碳水化合物和阳离 子化合物。 Alumnia N (neutral) 中性 PH~6.5 100mg 200mg 500mg 500mg 1000mg 1ml 3ml 3ml 6ml 6ml 100 50 50 30 30 极性化合物吸附萃取。调节pH,阳和阴离。子 交换.适合于维生素,抗菌素,芳香油,酶,糖苷, 激素 Amino(NH2) 硅胶上键合丙氨基 100mg 200mg 500mg 500mg 1000mg 1ml 3ml 3ml 6ml 6ml 100 50 50 30 30 正相萃取,适合于极性化合物。 弱阴离子交换萃取,适合于碳 水化合物,弱性阴离子和有机 酸化合物。 Florisil 填料-硅酸 镁 100mg 200mg 500mg 500mg 1000mg 1ml 3ml 3ml 6ml 6ml 100 50 50 30 30 极性化合物的吸附萃取,如乙醇,醛,胺,药物, 染料,锄草剂,农药,PCBs,酣,含氮类化合物, 有机酸,苯酚,类固醇

实验室仪器的维护和保养

实验室仪器的维护和保养 实验过程控制在预定的条件之下,确保实验的优质、高效和安全,这是仪器设备防护的目的与任务。但 仪器设备也会和人一样,在缺乏抵御“细菌”侵蚀的情况下发生“疾病”。这里的“细菌”是指水分、霉菌、工业 大气、工作介质以及光和热等侵蚀性物质。检测仪器遭受侵蚀后则不能正确反映实验过程中各种参数的真实情况,甚至使实验无法进行,或缩短仪器使用寿命,或可能导致实验事故的发生。 搞好仪器防护工作,将利于实验的正常进行,有利于新实验方法的采用,有利于实验水平的提高:可以避免实验事故的发生可以扩大仪器的使用范围,可以延长仪器设备的使用寿命,这就相当于仪器生产产量的增加和质量的提高。 (二)仪器设备的侵蚀 仪器设备不外乎由金属与非金属两种材料所构成。研究仪器侵蚀过程,实际上是研究金属与非金属材料的侵蚀过程,所不同的是仪器有特殊的结构形式和使用场合,所以,又存在着仪器侵蚀的某些特殊问题。 抗折仪和天平刀口的磨损,这是受力情况下的机械损坏;塑料密封圈浸泡在溶剂中变形胀大,这是溶剂对塑料的物理溶胀;金属零部件被介质腐蚀、橡胶衬里层经长期使用变脆开裂,这是介质对材料的化学腐蚀;长了霉的绝缘材料介电性能下降,这是霉菌对绝缘材料的微生物侵袭。这些金属与非金属材料在机械、物理、化学及微生物作用下所引起的性能破坏的现象通称为材料的侵蚀。 金属的腐蚀,可分为化学腐蚀与电化学腐蚀。化学腐蚀是气体或液体介质与金属表面发生化学作用,生成化合物,从而使金属表面遭受破坏的过程。金属材料在高温下遭受氧气、水蒸汽、二氧化碳等腐蚀性介质腐蚀的过程称为高温氧化过程。而具有抵抗高温氧化气氛腐蚀作用的能力称为抗氧化性。电化学腐蚀是指在腐蚀过程中,伴随有电流产生。一般使用的金属材料,均是由多种元素组成的合金。即使纯金属材料,也会含有一定量的杂质,所以,从微观看,材料内部各个微小区域的成分和组织结构总不会完全一致,故其电极电位值也就不同,当这样的金属材料与腐蚀性介质接触时,便构成了无数微小的原电池,使金属材料遭受腐蚀。 非金属材料的组成和结构状态不同于金属材料,故非金属材料的侵蚀亦不同于金属材料的侵蚀。高分子化合物材料的侵蚀表现为受热软化或烧焦碳化;在溶剂作用下发生溶胀或溶解;在热、光、电、氧及侵蚀性介质等作用下变色、发粘、硬脆、龟裂和机械强度下降等。 陶瓷、玻璃、搪瓷等硅酸盐材料当遇到氢氟酸、热碳酸、浓碱、熔融碱等侵蚀性介质时,也会腐蚀变薄或者变为疏松多孔。例如将由Na2O 和SiO2组成的玻璃侵入盐酸等酸性介质中,Na2O 会与酸发生作用而被沥滤出来,剩下的SiO2 则呈多孔组织,使玻璃的机械强度显著降低。当玻璃与水相互作用时,水能溶解玻璃中的碱金属氧化物,使水呈碱性

固相萃取-高效液相色谱法测定环境水样中的三嗪类化合物

2006年5月M ay 2006 色谱C h inese J ou rna l of C h rom a tog raphy Vo l .24N o.3 267~270 收稿日期:2005207231 第一作者:李 竺,女,博士研究生,E 2m a il:lizhu 98@https://www.doczj.com/doc/f92612983.html,.通讯联系人:陈 玲,女,教授,博士生导师,Te l:(021)65984261,E 2m a il:chen ling @m a il .tongji https://www.doczj.com/doc/f92612983.html,. 基金项目:国家自然科学基金项目(N o 120477030),上海市科委2005年重点研究资助项目(N o.05JC 14059,N o.05dz 22330). 固相萃取2高效液相色谱法测定环境水样中的三嗪类化合物 李 竺1 , 陈 玲1 , 郜洪文1 , 董丽娴1 , 赵建夫 1,2 (1.同济大学污染控制与资源化研究国家重点实验室,上海200092; 2.同济大学长江水环境教育部重点实验室,上海200092) 摘要:建立了固相萃取2高效液相色谱法(SPE 2H PLC )测定地表水中三嗪类化合物的方法。考察了4种不同固相萃 取柱对三嗪类化合物的吸附效果,最终选择ENV I 218固相萃取柱用于萃取地表水中的三嗪类化合物;系统研究了环境水样中三嗪类化合物的最佳固相萃取条件,选择洗脱溶剂为甲醇,洗脱溶剂用量5mL,水样在萃取前不需要添加甲醇,不调节pH 值。测定了方法的检测限,结果表明,扑草净、莠去津、西玛津、脱乙基莠去津、羟基化莠去津和脱异丙基莠去津的最低检测限依次为0114μg /L,0112μg /L,0108μg /L,0108μg /L,0110μg /L 和0118μg /L 。将该法应用于实际环境水样的分析测定,结果表明某湖水中扑草净的含量为(9133±0127)μg /L,某江水中莠去津和扑草净的含量分别为(5128±0143)μg /L 和(7112±0154)μg /L 。关键词:固相萃取;高效液相色谱;三嗪类化合物;预富集中图分类号:O 658 文献标识码:A 文章编号:100028713(2006)0320267204 栏目类别:研究论文 D e te rm in a t io n o f T r ia z in e s in S u rfa ce W a te r U s in g S o lid P h a s e E x t ra c t io n 2H igh P e rfo rm a n ce L iq u id C h rom a to g rap h y L I Zhu 1 ,CH EN L ing 1 ,GAO H ongw en 1 ,DON G L ix ian 1 ,ZHAO J ianfu 1,2 (1.S ta te Key L a bora tory of Pollu tion Con trol a n d R esou rces R eu se,Ton gji U n ivers i ty,Sha n gha i 200092,Ch in a;2.Key L abora tory of Ya ngtze Aqu a tic En vironm en t,M in is try of Edu ca tion,Tongji U n ivers ity,Sha ngha i 200092,Chin a ) A b s t ra c t:A m e thod w as deve lop ed to m on ito r triazines in su rface w a te r us ing the com b ina tion of so lid p hase ex trac tion (SPE )and h igh p e rfo r m ance liqu id ch rom a tog rap hy .Fou r d iffe ren t SPE ca rtridges w e re tes ted fo r ex trac ting s ix triazines,inc lud ing a trazine (A ),s i m azine (S ),p rom e tryn (P ),dese thy la trazine (D EA ),22hyd roxya trazine (O HA )and des isop rop yla trazine (D I A ),and fina lly ENV I 218w as se lec ted as op ti m a l . The m e thod fo r so lid p hase ex trac tion w as fu rthe r sys tem a tica lly s tud ied fo r de ta ils.O p ti m a l resu lts of o rthogona l des ign w e re de te r 2m ined as fo llow s:pH 6,5m L m e thano l as e lu ting so lven t,and no m e thano l added in to w a te r sam p le befo re ex trac tion.The de tec tion li m its of s ix triazines w e re 0114μg /L fo r P,0112μg /L fo r A,0108μg /L fo r S,0108μg /L fo r D EA,0110μg /L fo r O HA and 0118μg /L fo r D I A.Th is m e thod w as app lied fo r environm en ta l aqua tic sam p les,and the resu lts show ed tha t the con 2cen tra tion of p rom e tryn in a lake w as de tec ted as (9133±0127)μg /L,as w e ll as the concen 2tra tions of a trazine and p rom e tryn in a rive r w e re de tec ted as (5128±0143)μg /L and (7112± 0154)μg /L resp ec tive ly . Ke y w o rd s:so lid p hase ex trac tion (SP E );h igh p e rfo r m ance liqu id ch rom a tog rap hy (H PLC ); triazines;p reconcen tra tion 三嗪类除草剂作为农田杂草生长的抑制性农药在世界范围内广泛使用。这类农药由于地表径流,常造成地表水污染,并对人类、动植物和水生生物造成不利影响。因此,美国环保署(U S EPA )将莠去津、西玛津等三嗪类除草剂列入优先控制污染物名单,规定饮用水中莠去津含量不得超过3μg /L,西玛津含量不得超过4μg /L [1] 。欧盟(EU )规定饮用水中单一农药浓度不得超过011μg /L,总浓度不得 超过015μg /L [2-5] 。我国《地表水环境质量标准》(GB 383822002)则规定地表水中莠去津的标准限值为3μg /L 。 环境水体中的三嗪类除草剂浓度很低,常处于

实验室设备维护校准计划

实验室设备维护校准规定 实验仪器设备是检测试验的重要物质条件,为加强实验室仪器设备的维护工作,保证仪器设备经常处于完好的技术状态,确保检测工作的正常进行,特制定本计划。 一、实验仪器设备的维护的范围及内容 1、实验仪器设备的维护保养 (1)做好实验仪器设备的维护保养工作,是每位实验室工作人员的职责,各实验室工作人员要切实履行自己的职责,作好仪器设备的使用和管理工作。 2、仪器设备要进行例行保养和定期保养 (1)例行保养要求:每次实验开机前和停机后要对实验仪器设备进行清洁、检查、调整、紧固以及替换个别易损件的工作,例行保养工作由该仪器设备使用人员和保管人员负责进行。 (2)定期保养要求:每台仪器设备运行到规定的时间周期(保养周期)不管其技术状况好坏,任务轻重,都必须按规定的范围和要求进行保养工作,保养周期要根据各类仪器设备的磨损规律、运行条件、操作维护水平因素确定。仪器设备出厂说明书中规定有保养周期,按说明书规定执行;无规定周期的,由各实验室根据实际情况制定。凡大型、贵重、精密仪器设备的定期保养周期计划,都要报质量负责人审查。 (3)实验仪器设备的保养要按规程进行,维护的主要内容是进行清洁润滑、紧固、通电检查、更换磨损零件等。 (4)每次定期保养要记录技术数据,纳入设备档案,并作为安排修理计划的依据。 3、仪器设备如果较长时间搁置不用,应间隔一定时间进行通电检查,并经常对仪器设备作清洁工作。 二、设备维护种类 1、品质检测类:干燥箱、水浴锅、、计、电导率仪、等。 2、卫生检测类:超净工作台、培养箱、高压灭菌锅、电子天平、电炉、电热蒸馏水器、显微镜、菌落计数器、农药残留快速检测仪等。 三、设备维护保养内容 1、干燥箱: (1)定期检查温度调节器之银触点是否发毛或不平,如有,可用细纱布将触

相关主题
文本预览
相关文档 最新文档