当前位置:文档之家› FUZZY INTERVAL NUMBER (FIN) TECHNIQUES FOR CROSS LANGUAGE INFORMATION RETRIEVAL

FUZZY INTERVAL NUMBER (FIN) TECHNIQUES FOR CROSS LANGUAGE INFORMATION RETRIEVAL

FUZZY INTERVAL NUMBER (FIN) TECHNIQUES FOR CROSS LANGUAGE INFORMATION RETRIEVAL
FUZZY INTERVAL NUMBER (FIN) TECHNIQUES FOR CROSS LANGUAGE INFORMATION RETRIEVAL

FUZZY INTERVAL NUMBER (FIN) TECHNIQUES FOR CROSS LANGUAGE INFORMATION RETRIEVAL

……..

………

…….

…………

………..

……….

Keywords: Fuzzy Interval Number (FIN), Information Retrieval (IR), Cross Language Information Retrieval (CLIR). Abstract: A new method to handle problems of Information Retrieval (IR) and related applications is proposed. The method is based on Fuzzy Interval Numbers (FINs) introduced in fuzzy system applications. Definition,

interpretation and a computation algorithm of FINs are presented. The frame of use FINs in IR is given. An

experiment showing the anticipated importance of these techniques in Cross Language Information

Retrieval (CLIR) is presented..

1 INTRODUCTION

Oard (Oard, 1997) classifies free (full) text Cross Language Information Retrieval (CLIR) approaches to corpus-based and knowledge-based approaches. Knowledge-based approaches encompass dictionary-based and ontology (thesaurus)-based approaches while corpus-based approaches encompass parallel, comparable and monolingual corpora. Dictionary-based systems translate query terms one by one using all the possible senses of the term. The main drawbacks of this procedure are:

a) the lack of fully updated Machine Readable Dictionaries (MRDs),

b) the ambiguity of the translations of terms results in a 50% loss of precision (Davis, 1996).

Since the machine translation of the query is less accurate than that of a full text, experiments have been conducted with collections having machine translations of all the collection texts to all languages of interest. Such systems are really multi-monolingual systems. Parallel and comparable corpora systems are different: the parallel (or comparable) corpora are used to “train” the system and after that no translations are used for retrieval. One such system, perhaps the most successful, is based on Latent Semantic Indexing (LSI) (Dumais, 1996), (Berry, 1995). The main problem with this approach is that it is not easy to find training parallel corpora related to any collection.

Fuzzy (set) techniques were proposed for Information Retrieval (IR) applications many years ago (Radecki, 1979), (Kraft, 1993), mainly for modeling.

Fuzzy Interval Numbers (FINs) were introduced by Kaburlasos (Kaburlazos, 2004), (Petridis, 2003) in fuzzy system applications.

A FIN may be interpreted as a conventional fuzzy set; additional interpretations for a FIN are possible including a statistical interpretation.

The special interest in these objects and associated techniques for IR stems from their anticipated capability to serve CLIR without the use of dictionaries and translations.

The basic features of the method presented here are: 1) Documents are represented as FINs; a FIN resembles a probability distribution.

2) The FIN representation of documents is based on the use of the collection term frequency as the term identifier.

3) The use of FIN distance instead of a similarity measure.

There are indications, part of which is presented in section 4 below, that a parallel corpora system can be build using FIN techniques.

The structure of the remainder of this paper is as follows: In section 2 a brief introduction to FINs and other relevant concepts is given. In section 3 the

“conceptual” transition from document vectors to document FINs is presented. Section 4 presents the special interest of FINs in handling CLIR problems. Conclusions and current work on the subject are presented in section 5.

2 THEORETICAL BACKGROUND

A. Generalized Intervals

A generalized interval of height h (∈ (0,1]) is a mapping μ given by:

If x 1 < x 2 (positive generalized interval) then

elseif x 1 > x 2 (negative generalized interval) then

elseif x 1 = x 2 (trivial generalized interval) then

In this paper we use the more compact notation [x 1, x 2]h instead of the μ notation.

The interpretation of a generalized interval depends on an application; for instance if a feature is present it could be indicated by a positive generalized interval.

The set of all positive generalized intervals of height h is denoted by h

+M , the set of all negative generalized intervals by h ?M , the set of all trivial generalized intervals by h 0M and the set of all generalized intervals by M h = h

?M ∪h

0M ∪h

+M .

Two functions, that are going to be used in the sequel, are defined:

Function support maps a generalized interval to the corresponding conventional interval; support

([x 1, x 2]h ) = [x 1, x 2] for positive, support([x 1, x 2]h ) = [x 2, x 1] for negative and support([x 1, x 1]h ) = {x 1} for trivial generalized intervals.

Function sign: M h → { –1, 0, +1 } maps a positive generalized interval to +1, a negative generalized interval to –1 and a trivial generalized interval to 0. Now, we try to define a metric distance and an inclusion measure function in the set (lattice) M h .

A relation ≤ in a set S is called partial ordering relation if and only if it is: 1) x ≤ x (reflexive)

2) x ≤ y and y ≤ x imply x= y (antisymmetric) 3) x ≤ y and y ≤ z imply x ≤ z (transitive)

Therefore a partial order relation ≤ can be defined in the set M h , h ∈ (0,1]:

1) [a, b]h ≤ [c, d]h ? support([a, b]h ) ? support ([c, d]h ), for [a, b]h , [c, d]h ∈ h

+M 2) [a, b]h ≤ [c, d]h ? support([c, d]h ) ?

support([a, b]h ), for [a, b]h , [c, d]h ∈ h ?M 3) [a, b]h ≤ [c, d]h ? support([c, d]h ) ∩

support([a, b]h ) ≠ 0, for [a, b]h ∈ h ?M , [c, d]h ∈ h

+M

A partial ordering relation does not hold for all pairs of generalized interval.

A lattice (L, ≤) is a partially ordered set and any two elements have a unique greatest lower bound or lattice meet (x ∧L y) and a unique least upper bound or lattice join (x ∨L y).

A valuation v in a lattice L, defined as the area “under” a generalized interval, is a real function v:L → R which satisfies

v(x)+v(y)= v(x ∨L y) + v(x ∧L y), x,y ∈ L.

A valuation is called monotone if and only if x ≤ y implies v(x) ≤ v(y) and positive if and only if x < y implies v(x) < v(y) for x,y ∈ L. A metric distance in a set S is a real function d:S ×S → R which satisfies:

1) d(x,y) ≥ 0, x, y ∈ S

2) d(x,y) = 0 ? x = y, x ∈ S

3) d(x,y) = d(y,x) , x, y ∈ S (symmetry) 4) d(x,y) ≤ d(x,z) + d(z,y), x, y, z ∈ S (triangle inequility)

Therefore a metric distance d:L ×L → R can be defined in the lattice M h , h ∈ (0,1] given by d(x, y) = v(x ∨L y) - v(x ∧L y), x,y ∈ L.

A lattice is called complete when each of its subsets has a least upper bound and a greatest lower bound. In a complete lattice the positive valuation function v can be used to define an inclusion measure function k: L ×L → [0, 1] given by v(u) k(x, u) =

v(x ∨L u)

The lattice M h is not complete.

Therefore we must define in a different way an inclusion measure to quantify the degree of inclusion of a lattice element into another one.

??

?≤≤=otherwise

,0,)(21],[21

x x x h x h

x x μ??

?≥≥?=otherwise ,0,)(21],[21

x x x h x h

x x μ??

?=?=otherwise

,0},,{)(1],[21

x x h h x h

x x μ

Definition

An inclusion measure σ in a non-complete lattice L is a map σ: L ×L → [0, 1] such that for u, w, x ∈ L: 1) σ(x, x) = 1

2) u < w ? σ(w, u) < 1

3) u ≤ w ? σ(x, u) ≤ σ(x, w) (consistency property) We have interchangeable used the notations σ(x, u), σ(x ≤ u) because both the notations indicate a degree of inclusion of x in u.

Kaburlazos has proved the following proposition: Let the underlying positive valuation function f: R → R be a strictly increasing real function in R. Then the real function v: M h → R is given by v([a, b]h ) = sign ([a, b]h ) c(h) a ∫b [f(x) – f(a)] dx where v is a positive valuation function in M h ,

c: (0,1] → R + is a positive real function for normalization. A metric distance in M h is given by: d h (x, y) = v(x ∨ y) – v(x ∧ y)

As an example consider f(x)=x, c(h)=h. Then the distance is given by:

d h ([a, b]h , [c, d]h )= h (|a-c|+|b-d|). As another example, for f(x)= x 3, h=1 and c(1)=0.5 w

e compute the distance (between the intervals [-1, 1]1, [2, 4]1) d h ([-1, 1]1 , [2, 4]1)= f(([-1, 1]1 ∨ [2, 4]1) - f(([-1, 1]1 ∧ [2, 4]1) = 32.5 + 3.5 = 36.

The essential role of a positive valuation function v: L → R is known to be a mapping from a lattice L of semantics to the mathematical field R of real numbers for carrying out computations.

B. Fuzzy Interval Numbers: Definition and Interpretation

A positive Fuzzy Interval Number (FIN) is a continuous function F: (0,1] → h

+M such that h 1 ≤ h 2 ? support(F (h 1)) ? support(F( h 2)), where 0 < h 1 ≤ h 2 <1.

Figure 1 An 86 value FIN. In the support(F(0.25)) = [62,318] there are about 75% of the values.

The set of all positive FINs is denoted by F +. Similarly, trivial and negative FINs are defined.

Given a population (a vector) x = [x 1,x 2,…,x N ] of real numbers (measurements), sorted in ascending order, a FIN can be computed by applying the CALFIN algorithm given in the Appendix. In Fig.1 a FIN, calculated from a population of 86 values, is shown. Given a FIN, any “cut” at a given height h (∈ (0,1]) defines a generalized interval, denoted by F(h). In Fig.1, F(0.25) is the generalized interval [a,b]0.25 represented by acdb.

A consequence of the CALFIN algorithm is the following: Let F(1) = {m 1}; approximately N/2 of the values of x are smaller than m 1 and N/2 are greater than m 1. Let F(0.5) = [p 1/2,q 1/2]0.5; approximately N/4 of the values of x lie in [p 1/2,m 1] and N/4 in [m 1,q 1/2]. In more general terms: for any h ∈ (0,1] approximately 100(1 - h)% of the N values of x are within support(F(h)).

C. FIN Metrics

Let m h : R → R + be a positive real function – a mass function – for h ∈ (0,1] (could be independent of h) and f h (x) =

x

h dt t m 0

)(.

Obviously, f h is strictly increasing. The real function v h : h

+M → R , given by v h ([a,b]h ) = f h (b) – f h (a)

is a positive valuation function in the set of positive generalized intervals of height h. d h ([a,b]h ,[c,d]h ) =

[f h (a ∨c) – f h (a ∧c)] + [f h (b ∨d) – f h (b ∧d)],

where a ∧c= min{a,c} and a ∨c= max{a,c}, is a metric distance between the two generalized intervals [a,b]h and [c,d]h . In Fig.2 an interpretation of a, b, c, d in the case of two FINs is shown.

Figure 2: Two FINs F 1 and F 2 (representing two documents of the CACM test collection). The points a, b, c, d used to define d h (F 1(h),F 2(h)) = d h ([a,b]h ,[c,d]h ).

0.25

0.5

0.75

1

100200300

400

h

0.25

0.5

0.75

1

100

200

300400

500

ctf (mod)

h

Given two positive FINs F 1 and F 2, d(F 1,F 2)= ∫1

21))(),((h d h F h F d

c

h

where c is an user-defined positive constant, is a metric distance (for a proof see (Kaburlazos, 2004))

3 USING FINS TO REPRESENT DOCUMENTS

In the Vector Space Model (Salton, 1983) for Information Retrieval, a text document is represented by a vector in a space of many dimensions, one for each different term in the collection. In the simplest case, the components of each vector are the frequencies of the corresponding terms in the document:

Doc k = ( f k1, f k2, … f kn )

f kj stands for the frequency of occurrence of term t j in document Doc k . In Fig.3 one such vector is shown as a histogram.

Figure 3 A document vector as a histogram. Each value on the term axis represents a term (stem), e.g. “51” stands for “industri” and “104” for “research”.

Let ctf j be the total frequency of occurrence of term t j in the whole collection. Then ctf j is equal to

The collection term frequencies are going to be used as term identifiers. In order to ensure the uniqueness of the identifiers a multiple of a small ε is added to

the ctfs when needed. In Fig.4 the new form of the document vector histogram is shown.

Figure 4 The document vector histogram in (modified) ctf abscissae. Each value on the ctf (mod) axis represents a term (stem), e.g. “1.24775” stands for “industri” and “2.09009” for “research”.

The next step is to break the “high bars” to multiple pieces of height 1, placed side by side, separated by some ε′ < ε; this is shown in Fig.5. Now, the original histogram has been transformed to a “density graph”.

Figure 5 The “density graph” representation of the document of Fig. 1.

The abscissae vector is exactly the “number

population” from which the document FIN (Fig.6) is computed from by the CALFIN algorithm described in the Appendix.

01

2

34

50

100

150

term

t

f

ctf (mod)

t

f

01

1

2

34

5

6

ctf (mod)

∑k

kj

tf

Figure 6The document FIN along with the median bars. The numbers of terms on the left and right sides of the bar with height 1 are equal.

The FIN distance is used instead of the similarity measure between documents: the smaller the distance the more similar the documents. This

a) means that for each query a FIN must be

calculated and

b) imposes a serious requirement on the

queries: they must have many terms. As

can be seen in the CALFIN algorithm

(appendix), at least two terms are needed to

calculate a FIN. Moreover, experience

shows that many term documents (queries)

give “better” fins.

4. FINS FOR CLIR

A. The Hypothesis

Consider a document set {doc(l)1, doc(l)2, …, doc(l)n}, all in language l. Suppose that for each document doc(l)k there exist translations doc(j)k to the languages j = 1, …, m. So we have a multilingual document collection:

{ 1≤ j ≤ m, 1≤ k ≤ n , doc(j)k }

Assume that:

1. The stopword lists of all languages are

translations of each other (partially unrealistic). 2. All the translations are done “1 word to 1

word”, i.e. we have no phrasal translations of

words (highly unrealistic (Ballesteros, 1997)). 3. There is no different polysemy between any two

languages (highly unrealistic (Ballesteros, 1998)).

Under these assumptions: Consider a term in language l, t(l)j. Let tf(l)jk be the term frequency in doc(l)k and ctf(l)j the total frequency of the term in the collection. The following equalities hold: tf(1)jk = tf(2)jk = … = tf(m)jk

ctf(1)j = ctf(2)j = … = ctf(m)j

If docF(l)k is the FIN representing doc(l)k then the distances of the translated document FINs will be approximately 0:

A1: d(docF(l1)k,docF(l2)k) ≈ 0

The distances can be nullified exactly with the use of

a dictionary.

Moreover, let qryF(l) be the FIN of a query submitted to a FIN-based IR System that manages the collection. Then:

A2: d(qryF(l),docF(l)k ) ≈ d(qryF(l),docF(j)k),

j ∈ 1..m

This means that Cross Language Information Retrieval is achievable without the use of dictionaries.

B. The Experiment

The experiment aims to test the aforementioned statements A1 and A2 in the “real world”.

A small document collection comprising 3 short documents in english and their greek translations (the documents originate from EU databases) was used. The documents were slightly modified in order

to improve their compliance with the hypotheses of part A. The term content of the documents is shown

in Table 1. Apparently it was not easy to avoid phrasal translations and terms with different polysemy.

Table 1 The term content of the documents

Total Number of Terms

Number of Distinct

Terms

english greek English greek doc1 69 69 67 58 doc2 83 83 50 51 doc3 79 86 65 71 Total Nt en =231 Nt gr =238 151 154

The FINs of the documents were calculated taking

all terms without exceptions. The FINs of the english documents are shown in Fig.7. The steep ascent of the left side of the curves is due to the inclusion of all the terms appearing only once in the collection.

In Fig.8 the FINs of the greek and english versions of document 3 are shown. They are almost identical except for the right “tail” of the greek FIN. This is a result of different polysemy.

ctf (mod) h

Figure 7 The FINs of the english documents .

Figure 8 The FINs of the english and greek versions of document 3.

For the distance calculations a bell-shaped mass function is selected: m h (t) =

2

22)max(?

?

?????++ctf t A h

βα

The positive real numbers A, α, β, are parameters;

max(ctf) is the maximum value of all the collection term frequencies.

That kind of mass function degrades the contribution of to the FIN distance of the terms with ctf = 1. The same degradation applies to the high ctf terms. So, the contribution to the distance of the “tail” to the right of the greek FIN in Fig.8 is degraded but the same applies in general to all high frequency terms even those that do not have high document frequency.

The verification of A1 and A2 is translated as follows:

A 1: d(docF(e)1,docF(g)1), d(docF(e)2,docF(g)2) and d(docF(e)3,docF(g)3) are significantly smaller that other distances between FINs.

A2: Instead of query documents the FINs of the documents of the collection are used. So instead of d( qryF(l),docF(l)k ) ≈ d(qryF(l),docF(j)k ), j ∈ 1..m the following is examined:

d(docF(l)m ,docF(l)n ) ≈ d(docF(l 1)m ,docF(l 2)n ), m, n = 1, 2, 3, m ≠ n, l, l 1, l 2 = e, g

In Table 2 the FIN distances of all pairs of documents in the collection are shown. As expected the smallest are the distances between the greek and english versions of the same documents.

If d 1e1g = d( doc(e)1F, doc(g)1F ) = 0.03515 then d( doc(e)2F, doc(g)2F ) ≈ 1.2 d 1e1g and d( doc(e)2F, doc(g)2F ) ≈ 2.06 d 1e1g

Apart from these, the smallest distance is d( doc(e)1F, doc(e)3F ) = 0.27195 ≈ 7.7 d 1e1g . That is: the largest distance between two versions of the same document is about 3.8 times smaller than the smallest distance between versions of different documents. Moreover:

d(docF(l 1)m ,docF(l 2)n ) ≤ 1.15 d(docF(l 3)m ,docF(l 4)n ), m, n = 1, 2, 3, m ≠ n, l 1, l 2, l 3, l 4 = e, g

That is: the distance between any two versions of the same document is at most 1.15 times larger than the distance of any two other versions of the same document.

In conclusion:

1) The distances of different versions (languages)

of the same document are considerably smaller than others.

2) The distances of two different documents are

almost the same irrespective of the language of the documents.

In the second phase of the experiment one more english language document (doc(e)4) is inserted in the collection but not its greek version. The number of english terms is increased by ΔNt en = 58. Now the distances are changed:

d(docF(l 1)m ,docF(l 2)n ) ≤ 1.32 d(docF(l 3)m ,docF(l 4)n ), m, n = 1, 2, 3, m ≠ n, l 1, l 2, l 3, l 4 = e, g

To rebalance the collection characteristics we renormalize the greek FIN absissae multiplying χj by:

????

???

?Δ+en en j r NT NT ctf x k )max(100.25

0.5

0.75

1

1

2

3

4

5

6

7

ctf (mod)

h

00.25

0.5

0.751

1

2

3

45

6

7

ctf (mod)

h

After that:

d(docF(l1)m,docF(l2)n) ≤d(docF(l3)m,docF(l4)n), m, n = 1, 2, 3, m≠n, l1, l2, l3, l4 = e, g

5. CONCLUSIONS AND FUTURE WORK

FIN techniques seem promising for IR and related applications; the prospect of CLIR without dictionaries is very intriguing. Nevertheless there are quite enough topics to be considered carefully. These techniques, for monolingual and cross language IR, work with long documents and queries that can give “good” FINs. Unfortunately, this is not the case with the queries submitted to Internet search engines; these queries very often have just a couple of terms (Kobayashi, 2000). The FIN techniques can be more successful in problems of document classification where documents with many terms –and “better” FINs– must be handled.

The quality of a FIN does not depend on number of terms only; it must be considered with the mass function for the distance calculation. In the previous paragraph a “soft” degradation of the contribution to the distance of terms with ctf = 1, has been attempted through the mass function. A better idea would be probably to ignore completely these terms in the FIN computation. In FIN construction, term document frequency (df) must be taken into account as well.

The bell-shaped mass function seems to be a reasonable one but other ideas should be considered in conjunction with FIN computation.

Last but not least the renormalization scheme: in any multilingual collection the numbers of terms in different languages are random and a solid and flexible re-balancing scheme is needed, which is not independent of the FIN construction method and the distance calculation (mass function).

The optimal determination of the parameters A, α, β and k r is part of the system training process using parallel corpora.

At present, experiments are been conducted along these lines mainly with two of the standard monolingual collections, namely CACM and WSJ. These collections are of interest because they have relatively longer queries.

On the other hand, a trilingual – greek / english / french – test collection is been built for CLIR experimentation. The parallel corpora are created by translation by hand (although there is some mechanical help). Experiments are conducted and records of performance are kept during various stages of the parallel corpora creation. ACKNOWLEDGMENTS

This work was co-funded by 75% from the E.U. and 25% from the Greek Government under the framework of the Education and Initial Vocational Training Program – Archimedes.

REFERENCES

Ballesteros, L. and W. B. Croft, “Phrasal Translation and Query Expansion Techniques for Cross-Language Information Retrieval” in the Proceedings of the 20th International ACM SIGIR Conference on Research and Development in Information Retrieval (SIGIR-

97), pp. 84-91, 1997.

Ballesteros, L. and W. B. Croft, “Resolving Ambiguity for Crosslanguage Retrieval” in the Proceedings of the 21st International ACM SIGIR Conference on Research and Development in Information Retrieval (SIGIR-98), pp. 64-71, 1998.

Berry, M. and P. Young, “Using latent semantic indexing for multi-language information retrieval” Computers and the Humanities, vol. 29, no 6, pp. 413-429, 1995. Davis, M., “New experiments in cross-language text retrieval at NMSU’s Computing Research Lab” in D.

K. Harman, ed., The Fifth Text Retrieval Conference (TREC-5), NIST, 1996.

Table 1 FIN distances of the documents of the

collection

Doc(e)1doc(e)2doc(e)3doc(g)1doc(g)2doc(g)3 doc(e)10.000000.340440.271950.035150.326580.29084 doc(e)20.340440.000000.605880.313140.072300.61259 doc(e)30.271950.605880.000000.299380.593630.04258 doc(g)10.035150.313140.299380.000000.300650.31147 doc(g)20.326580.072300.593630.300650.000000.60035 doc(g)30.290840.612590.042580.311470.600350.00000

Dumais, S. T., T.K. Landauer, M.L. Littman, “Automatic cross-linguistic information retrieval using latent semantic indexing” in G. Grefenstette, ed., Working Notes of the Workshop on Cross-Linguistic Information Retrieval. ACM SIGIR.

Kaburlasos, V.G., “Fuzzy Interval Numbers (FINs): Lattice Theoretic Tools for Improving Prediction of Sugar Production from Populations of Measurements,”

IEEE Trans. on Man, Machine and Cybernetics – Part B, vol. 34, no 2, pp. 1017-1030, 2004.

Kobayashi, M. and K. Takeda, “Information Retrieval on the Web,” ACM Computing Surveys, 32, 2 (2000), pp 144-173.

Kraft, D.H. and D.A. Buell, “Fuzzy Set and Generalized Boolean Retrieval Systems” in Readings in Fuzzy Sets for Intelligent Systems, D. Dubius, H.Prade, R.R.

Yager (eds) 1993.

Oard, D.W., “Alternative Approaches for Cross-Language Text Retrieval” in Cross-Language Text and Speech

Retrieval, AAAI Technical Report SS-97-05.

Available at

https://www.doczj.com/doc/7715930112.html,/dlrg/filter/sss/papers/ Petridis, V. and V.G. Kaburlasos, “FINkNN: A Fuzzy Interval Number k-Near-est Neighbor Classifier for prediction of sugar production from populations of samples,” Journal of Machine Learning Research, vol.

4 (Apr), pp. 17-37, 2003 (can be downloaded from

https://www.doczj.com/doc/7715930112.html,).

Radecki, T., “Fuzzy Set Theoretical Approach to Document Retrieval” in Information Processing and Management, v.15, Pergammon-Press 1979.

Salton, G. and M.J. McGill, Introduction to Modern Information Retrieval, McGraw-Hill, 1983.

A PPENDIX – FIN C OMPUTATION

Consider a vector of real numbers x = [x1,x2,…,x N] such that x1≤x2≤…≤x N. A FIN can be constructed according to the following algorithm CALFIN where dim(x) denotes the dimension of vector x, e.g. dim([2,-1])= 2, dim([-3,4,0,-1,7])= 5, etc.

The median(x) of a vector x = [x1,x2,…,x N] is defined to be a number such that half of the N numbers x1,x2,…,x N are smaller than median(x) and the other half are larger than median(x); for instance, the median([x1,x2,x3]) with x1 < x2 < x3 equals x2, whereas the median([x1,x2,x3,x4]) with x1 < x2 < x3 < x4 was computed here as median([x1,x2,x3,x4])=

(x2 + x3)/2. Algorithm CALFIN

1. Let x be a vector of real numbers.

2. Order incrementally the numbers in vector

x.

3. Initially vector pts is empty.

4. function calfin(x) {

5. while (dim(x) ≠ 1)

6. medi:

=

median(x)

7. insert medi in vector pts

8. x_left:

=

elements in vector x less-than number median(x)

9. x_right:= elements in vector x larger-than

number median(x)

10. calfin(x_left)

11. calfin(x_right)

12. endwhile

13. } //function calfin(x)

14. Sort vector pts incrementally.

15. Store in vector val, dim(pts)/2 numbers

from 0 up to 1 in steps of 2/dim(pts)

followed by another dim(pts)/2 numbers

from 1 down to 0 in steps of 2/dim(pts).

The above procedure is repeated recursively log2N times, until “half vectors” are computed including a single number; the latter numbers are, by definition, median numbers. The computed median values are stored (sorted) in vector pts whose entries constitute the abscissae of a positive FIN’s membership function; the corresponding ordinate values are computed in vector val. Note that algorithm CALFIN produces a positive FIN with a membership function μ(x) such that μ(x)=1 for exactly one number x.

集成电路的功耗优化和低功耗设计技术

集成电路的功耗优化和低功耗设计技术 摘要:现阶段各行业的发展离不开对能源的消耗,随着目前节能技术要求的不 断提升,降低功耗成为行业发展的重要工作之一。本文围绕集成电路的功耗优化 以及低功耗设计技术展开分析,针对现阶段常见的低功耗设计方式以及技术进行 探究,为集成电路功耗优化提供理论指导。 关键词:集成电路;功耗优化;低功耗 目前现代节能技术要求不断提升,针对设备的功耗控制成为当前发展的主要问题之一。 针对数字系统的功耗而言,决定了系统的使用性能能否得到提升。一般情况下,数字电路设 计方面,功耗的降低一直都是优先考虑的问题,并且通过对整个结构进行分段处理,同时进 行优化,最后总结出较为科学的设计方案,采用多种方式降低功耗,能够很大程度上提升设 备的使用性能。下面围绕数字电路的功耗优化以及低功耗设计展开分析。 一、设计与优化技术 集成电路的功耗优化和低功耗设计是相对系统的内容,一定要在设计的每个环节当中使 用科学且合理的技术手段,权衡并且综合考虑多方面的设计策略,才能够有效降低功耗并且 确保集成电路系统性能。因为集成电路系统的规模相对较大且具有一定的特殊性,想要完全 依靠人工或者手动的方式来达到这些目的并不现实且缺少可行性,一定要开发与之对应的电 路综合技术。 1 工艺级功耗优化 将工艺级功耗应用到设计当中,通常情况下采取以下两种方式进行功耗的降低: 首先,根据比例调整技术。进行低功耗设计过程中,为了能够实现功耗的有效降低会利 用工艺技术进行改善。在设计过程中,使用较为先进的工艺技术,能够让设备的电压消耗有 效缩减。现阶段电子技术水平不断提升,系统的集成度也随之提高,目前采用的零件的规格 也逐渐缩小,零件的电容也实现了良好的控制,进而能够很大程度上降低功耗。借助比例技术,除了能够将可见晶体管的比例进行调整,而且也能够缩小互连线的比例[1]。目前在晶体 管的比例缩小方面,能够依靠缩小零件的部分重要参数,进而在保持性能不被影响的情况下,通过较小的沟道长度,确保其他的参数不受影响的栅压缩方式,进而将零件的体积进行缩减,同时也缩短了延长的用时,使功耗能够有效降低。针对互连线缩小的方式主要将互连线的整 个结构进行调整,工作人员在进行尺寸缩减的过程中,会面临多方面的难题,比如系统噪音 无法控制,或者降低了电路使用的可靠性等等。 其次,采用封装技术进行降低。采用封装技术,能够让芯片与外部环境进行有效的隔离,进而避免了外部环境给电气设备造成一定的破坏与影响,在封装阶段,芯片的功耗会受到较 大的影响,因此需要使用更加有效的封装手段,才能够提升芯片的散热性,进而有效降低功 耗[2]。在多芯片的情况下,因为芯片与其他芯片之间的接口位置会产生大量的功耗,因此针 对多芯片采取封装技术,首先降低I/0接口的所有功能,接着解决电路延迟的问题,才能够 实现对集成电路的优化。 2 电路功耗优化 一般情况下,对电路级的功耗会选择动态的逻辑设计。在集成电路当中,往往会包含多 种电路逻辑结构,比如动态、静态等等,逻辑结构从本质上而言具有一定的差异性,这种差 异性也使得逻辑结构有着不同作用的功能。动态逻辑结构有着较为典型的特性[3]。静态的逻 辑结构当中所有的输入都会对接单独的MOS,因此逻辑结构功耗更大,动态的逻辑结构当中 电路通常具备N、M两个沟道,动态电路会利用时钟信号采取有效的控制,进而能够实现预

基于IEEE1801(UPF)标准的低功耗设计实现流程

https://www.doczj.com/doc/7715930112.html,/inform ation/snug/2009/low-power-impleme ntation-flow-based-ieee1801-upf 基于IEEE1801(UPF)标准的低功耗设计实现流程 Low-power Implementation Flow Based IEEE1801 (UPF) 郭军, 廖水清, 张剑景 华为通信技术有限公司 jguo@https://www.doczj.com/doc/7715930112.html, liaoshuiqing@https://www.doczj.com/doc/7715930112.html, zhangjianjing@https://www.doczj.com/doc/7715930112.html, Abstract Power consumption is becoming an increasingly important aspect of ASIC design. There are several different approaches that can be used to reduce power. However, it is important to use these low-power technology more effectively in IC design implementation and verification flow. In our latest low-power chip, we completed full implementation and verification flow from RTL to GDSII successfully and effectively by adopting IEEE1801 Unified Power Format (UPF). This paper will focus on UPF application in design implementation with Synopsys low power solution. It will highlight that how to describe our low-power intent using UPF and how to complete the design flow. This paper first illustrates current low-power methodology and UPF?s concept. Then, it discussed UPF application in detail. Finally, it gives our conclusion. Key words: IEEE1801, UPF, Low-Power, Shut-Down, Power Gating, Isolation, IC-Compiler 摘要

如何进行低功耗设计

如何进行低功耗设计 现在电子产品,特别是最近两年很火爆的穿戴产品,智能手表等都是锂电池供电,如果采用同样容量大小的锂电池进行测试不难发现电子产品低功耗做的好的,工作时间越长。因此,低功耗设计排在电子产品设计的重要地位。 最近做穿戴产品设计,面临的第一个问题就是低功耗设计。经过这两天的认真分析总结,将低功耗设计的方法总结,以飨网友。 首先,要明白一点就是功耗分为工作时功耗和待机时功耗,工作时功耗分为全部功能开启的功耗和部分功能开启的功耗。这在很大程度上影响着产品的功耗设计。 对于一个电子产品,总功耗为该产品正常工作时的电压与电流的乘积,这就是低功耗设计的需要注意事项之一。 为了降低产品的功耗,在电子产品开发时尽量采用低电压低功耗的产品。比如一个产品,曾经用5v单片机正常工作,后来又了3.3v的单片机或者工作电压更低的,那么就是在第一层次中进行了低功耗设计,这也就是我们常说的研发前期低功耗器件选择。这一般需要有广阔的芯片涉猎范围或者与供应商有良好的沟通。 其次是模块工作的选择控制,一般选择具有休眠功能的芯片。比如在设计一个系统中,如果某些外部模块在工作中是不经常使用的,我们可以使其进入休眠模式或者在硬件电路设计中采用数字开关来控制器工作与否,当需要使用模块时将其唤醒,这样我们可以在整个系统进入低功耗模式时,关闭一些不必要的器件,以起到省电的作用,延长了待机时间。一般常用方法:①具有休眠模式的功能芯片②MOS管做电子开关③具有使能端的LDO芯片。 再次,选择具有省电模式的主控芯片。现在的主控芯片一般都具有省电模式,通过以往的经验可以知道,当主控芯片在省电模式条件下,其工作电流往往是正常工作电流的几分之一,这样可以大大增强消费类产品电池的使用时间。同时,现在一些控制芯片具有双时钟的模式,通过软件的配置使芯片在不同的使用场合使用不同的外部始终从而降低其功耗。这与始终分频器具有异曲同工之妙,不同之处想必就是BOM的价格问题。现在火爆的APPLE WATCH 就是低功耗的一个例子:全功能运行3-4小时,持续运行18小时。 主控芯片或者相关模块唤醒的方式选择。通常进过以上的步骤设计好了硬件结构,在系统需要省电,在什么时候进入省电模式,这一般在软件设计中实现,但是最主要还是需要根据产品的功能特性来决定了。当系统进入了省电模式,而系统的唤醒也需要控制。一般系统的唤醒分为自动唤醒和外部唤醒。 A、自动唤醒是使用芯片内部的定时器来计时睡眠时间,当睡眠时间达到预定时间时,自动进行唤醒。这与我们使用的看门狗或者中断有比较相近之处,不同就是其工作与否的时序。 B、外部唤醒就是芯片一直处于一种休眠状态,当有一个外部事件(主要是通过接口)来对芯片进行一个触发,则芯片会唤醒,在事件处理之后消除该触发事件而在此进入休眠状态。因此,根据系统的特性,就需要进行软件设计时,来决定如何使用睡眠及唤醒,以降低系统的功耗。 最后说说功耗的测试,功耗测试分为模块功耗和整机功耗,模块功耗需要测试休眠时功耗和工作时功耗。整机功耗分为最大负荷工作时功耗和基本功能时功耗和休眠时功耗。在前期的测试中我用直接用UI来进行测量,关于如何进行高精度低功耗产品的测量,在下篇中进一步说明。

压合制程介绍

压合制程目的: 将铜箔(Copper Foil),胶片(Prepreg)与氧化处理(Oxidation)后的内层线路板,压合成多层基板. 内层氧化处理(Black/Brown Oxide Treatment) 氧化反应 A. 增加与树脂接触的表面积,加强二者之间的附着力(Adhesion). B. 增加铜面对流动树脂之润湿性,使树脂能流入各死角而在硬化后有更强的抓地力。 C. 在裸铜表面产生一层致密的钝化层(Passivation)以阻绝高温下液态树脂中胺类(Amine)对铜面的影响。 还原反应 目的在增加氧化层之抗酸性,并剪短绒毛高度,至恰当水准以使树脂易于填充并能减少粉红圈( pink ring ) 的发生。 黑化及棕化标准配方: 表一般配方及其操作条件 上表中之亚氯酸钠为主要氧化剂,其余二者为安定剂,其氧化反应式。 此三式是金属铜与亚氯酸钠所释放出的初生态氧,先---生成中间体氧化亚铜 ----2Cu+[O] →Cu2O,再继续反应成为氧化铜CuO,若反应能彻底到达二价铜的境界,则呈现黑巧克力色之"棕氧化"层,若层膜中尚含有部份一价亚铜时,则呈现无光泽的墨黑色的"黑氧化"层。

制程操作条件( 一般代表),典型氧化流程及条件。 棕化与黑化的比较 黑化层因液中存有高碱度而杂有Cu2O,此物容易形成长针状或羽毛状结晶。此种亚铜之长针在高温下容易折断而大大影响铜与树脂间的附着力,并随流胶而使黑点流散在板中形成电性问题,而且也容易出现水份而形成高热后局部的分层爆板。棕化层则呈碎石状瘤状结晶贴铜面,其结构紧密无疏孔,与胶片间附着力远超过黑化层,不受高温高压的影响,成为聚亚醯胺多层板必须的制程。 B. 黑化层较厚,经PTH后常会发生粉红圈(Pink ring),这是因PTH中的微蚀或活化或速化液攻入黑化层而将之还原露出原铜色之故。棕化层则因厚度很薄.较不会生成粉红圈。内层基板铜箔毛面经锌化处理与底材抓的很牢。但光面的黑化层却容易受酸液之侧攻,而现出

常用低功耗设计

随着半导体工艺的飞速发展和芯片工作频率的提高,芯片的功耗迅速增加,而功耗增加又将导致芯片发热量的增大和可靠性的下降。因此,功耗已经成为深亚微米集成电路设计中的一个非常重要的考虑因素。为了使产品更具有竞争力,工业界对芯片设计的要求已从单纯的追求高性能、小面积,转换为对性能、面积、功耗的综合要求。微处理器作为数字系统的核心部件,其低功耗设计对降低整个系统的功耗具有非常重要的意义。 本文首先介绍了微处理器的功耗来源,重点介绍了常用的低功耗设计技术,并对今后低功耗微处理器设计的研究方向进行了展望。 1 微处理器的功耗来源 研究微处理器的低功耗设计技术,首先必须了解其功耗来源。高层次仿真得出的结论如图1所示。 从图1中可以看出,时钟单元(Clock)功耗最高,因为时钟单元有时钟发生器、时钟驱动、时钟树和钟控单元的时钟负载;数据通路(Datapath)是仅次于时钟单元的部分,其功耗主要来自运算单元、总线和寄存器堆。除了上述两部分,还有存储单元(Mem ory),控制部分和输入/输出 (Control,I/O)。存储单元的功耗与容量相关。 如图2所示,C MOS电路功耗主要由3部分组成:电路电容充放电引起的动态功耗,结反偏时漏电流引起的功耗和短路电流引起的功耗。其中,动态功耗是最主要的,占了总功耗的90%以上,表达式如下: 式中:f为时钟频率,C1为节点电容,α为节点的翻转概率,Vdd为工作电压。

2 常用的低功耗设计技术 低功耗设计足一个复杂的综合性课题。就流程而言,包括功耗建模、评估以及优化等;就设计抽象层次而言,包括自系统级至版图级的所有抽象层次。同时,功耗优化与系统速度和面积等指标的优化密切相关,需要折中考虑。下面讨论常用的低功耗设计技术。 2.1 动态电压调节 由式(1)可知,动态功耗与工作电压的平方成正比,功耗将随着工作电压的降低以二次方的速度降低,因此降低工作电压是降低功耗的有力措施。但是,仅仅降低工作电压会导致传播延迟加大,执行时间变长。然而,系统负载是随时间变化的,因此并不需要微处理器所有时刻都保持高性能。动态电压调节DVS (Dynarnic Voltage Scaling)技术降低功耗的主要思路是根据芯片工作状态改变功耗管理模式,从而在保证性能的基础上降低功耗。在不同模式下,工作电压可以进行调整。为了精确地控制DVS,需要采用电压调度模块来实时改变工作电压,电压调度模块通过分析当前和过去状态下系统工作情况的不同来预测电路的工作负荷。 2.2 门控时钟和可变频率时钟 如图1所示,在微处理器中,很大一部分功耗来自时钟。时钟是惟一在所有时间都充放电的信号,而且很多情况下引起不必要的门的翻转,因此降低时钟的开关活动性将对降低整个系统的功耗产牛很大的影响。门控时钟包括门控逻辑模块时钟和门控寄存器时钟。门控逻辑模块时钟对时钟网络进行划分,如果在当前的时钟周期内,系统没有用到某些逻辑模块,则暂时切断这些模块的时钟信号,从而明显地降低开关功耗。图3为采用“与”门实现的时钟控制电路。门控寄存器时钟的原理是当寄存器保持数据时,关闭寄存器时钟,以降低功耗。然而,门控时钟易引起毛刺,必须对信号的时序加以严格限制,并对其进行仔细的时序验证。 另一种常用的时钟技术就是可变频率时钟。根据系统性能要求,配置适当的时钟频率,避免不必要的功耗。门控时钟实际上是可变频率时钟的一种极限情况(即只有零和最高频率两种值),因此,可变频率时钟比门控时钟技术更加有效,但需要系统内嵌时钟产生模块PLL,增加了设计复杂度。去年Intel公司推出的采用先进动态功耗控制技术的Montecito处理器,就利用了变频时钟系统。该芯片内嵌一个高精度数字电流表,利用封装上的微小电压降计算总电流;通过内嵌的一个32位微处理器来调整主频,达到64级动态功耗调整的目的,大大降低了功耗。

ASIC低功耗设计

三、低功耗技术 1. 功耗分析 (1)由于电容的充放电引起的动态功耗 V DD C l i VDD v out 图(20)充放电转换图 如图(20)所示:PMOS 管向电容L C 充电时,电容的电压从0上升到DD V ,而这些能量来 自于电源。一部分能量消耗在PMOS 管上,而剩余的则保存在电容里。从高电压向低转换的过程中,电容放电,电容中储存的能量消耗在NMOS 管上。 我们来推导一下:考虑从低电压转换到高电压的情况,NMOS 和PMOS 不同时导通。在转换过程中电源提供的能量为C E ,而是转换后储存在电容里的能量。 ???====∞∞VDD DD L out DD L out L DD VDD VDD V C dv V C dt dt dv C V dt t i E 0 002)( ???====∞∞VDD DD L out out L out out L out VDD C V C dv v C dt v dt dv C dt v t i E 02002 )( 这两个等式说明电源提供的能量只有一半储存在电容里。另一半被PMOS 管消耗掉了。 为了计算总体能量消耗,我们不得不考虑器件的翻转。如果门每秒钟翻转10?→? f 次,那么 102 ?→?=f V C P DD L dyn 10?→?f 表示能量消耗的翻转频率。 随着数字电路集成度的提高,能量问题将成为人们关注的焦点。从以上分析看出,dyn P 跟电源电压的平方成正比,因此降低供电电压对降低功耗有非常显著的意义。 但是,降低供电电压对电路性能有一定的影响,这时我们可以考虑减小有效电容和减少翻转率。电容主要是由于晶体管的门和扩散电容引起的,因此降低由于电容的充放电引起的动态功耗方法之一是将晶体管设计得尽可能小,这种方法同样对提高电路的性能有很大的帮助。

微处理器的低功耗芯片设计技术

微处理器的低功耗芯片设计技术 [日期:2008-1-7] 来源:单片机及嵌入式系统应用作者:同济大学周俊林正浩 [字体:大中小] 摘要随着半导体工艺的飞速发展和芯片工作频率的提高,功耗已经成为深亚微米集成电路设计中的一个重要考虑因素。本文介绍了低功耗微处理器的研究现状,讨论了几种常用的微处理器低功耗设计技术。最后,对夸后低功耗微处理器设计的研究方向进行了展望。 关键词微处理器功耗低功耗芯片设计 随着半导体工艺的飞速发展和芯片工作频率的提高,芯片的功耗迅速增加,而功耗增加又将导致芯片发热量的增大和可靠性的下降。因此,功耗已经成为深亚微米集成电路设计中的一个重要考虑因素。为了使产品更具竞争力,工业界对芯片设计的要求已从单纯追求高性能、小面积转为对性能、面积、功耗的综合要求。而微处理器作为数字系统的核心部件,其低功耗设计对降低整个系统的功耗具有重要的意义。 2000年年初,Transmeta公司推出了Crusoe处理器,以其独特的低功耗设计技术和非凡的超低功耗表现,在业界引起巨大轰动,引发了低功耗处理器设计的激烈竞争。 在2006年的英特尔开发者论坛大会(Intel DeveloperForum)上,英特尔展示了多款基于下一代技术的微处理器。其中,Metom主要用于笔记本电脑,最大功耗仅有5W,而将于2 006年底上市的超低电压版Merom的功耗则只有0.5W;Conroe主要面向台式机,其最大功耗为65W,远远低于现有Pentium 4处理器的95W;服务器处理器Woodcrest的最大功耗为80W,而现有的Xeon处理器的功耗为110W。 本文首先介绍了微处理器的功耗来源,重点介绍了常用的低功耗设计技术,并对今后低功耗微处理器设计的研究方向进行了展望。 1 微处理器的功耗来源 研究微处理器的低功耗设计技术,首先必须了解它的功耗来源。高层次仿真得出的结论如图1所示。

集成电路低功耗设计方法研究【文献综述】

毕业设计文献综述 电子信息科学与技术 集成电路低功耗设计方法研究 摘要:随着IC制造工艺达到纳米级,功耗问题已经与面积、速度一样受到人们关注,并成为制约集成电路发展的关键因素之一。同时,由于电路特征尺寸的缩小,之前相比于电路动态功耗可以忽略的静态漏功耗正不断接近前者,给电路低功耗设计提出了新课题,即低漏功耗设计。本文将分析纳米工艺下芯片功耗的组成和对低漏功耗进行研究的重要性,然后介绍目前主要的低功耗设计方法。此外,由于ASIC技术是目前集成电路发展的趋势和技术主流,而标准单元是ASIC设计快速发展的重要支撑,本文在最后提出了标准单元包低漏功耗设计方法,结合电路级的功耗优化技术,从而拓宽ASIC功耗优化空间。 关键字:低功耗,标准单元,ASIC设计 前言: 自1958年德克萨斯仪器公司制造出第一块集成电路以来,集成电路产业一直以惊人的速度发展着,到目前为止,集成电路基本遵循着摩尔定律发展,即集成度几乎每18个月翻一番。 随着制造工艺的发展,IC设计已经进入了纳米级时代:目前国际上能够投入大规模量产的最先进工艺为40nm,国内的工艺水平正将进入65nm;2009年,Intel酷睿i系列创纪录采用了领先的32nm 工艺,并且下一代22nm工艺正在研发中。但伴随电路特征尺寸的减小,电路功耗数值正呈指数上升,集成电路的发展遭遇了功耗瓶颈。功耗问题已经同面积和速度一样受到人们重视,成为衡量IC设计成功与否的重要指标之一。若在设计时不考虑功耗而功利地追求集成度的提高,则可能会使电路某些部分因功耗过大引起温度过高而导致系统工作不稳定或失效。如Intel的1.5GHz Pentium Ⅳ处理器,拥有的晶体管数量高达4200万只,功率接近95瓦,整机生产商不得不为其配上了特大号风扇来维持其正常工作。功耗的增大不仅将导致器件的可靠性降低、芯片的稳定性下降,同时也给芯片的散热和封装带来问题。因此,功耗已经成为阻碍集成电路进一步发展的难题之一,低功耗设计也已成为集成电路的关键设计技术之一。 一、电路功耗的组成 CMOS电路中有两种主要的功耗来源,动态功耗和静态功耗。其中,动态功耗包括负载电容的充放电功耗(交流开关功耗)和短路电流引起的功耗;静态功耗主要是由漏电流引起的功耗,如图1所示。

基于IEEE1801(UPF)的低功耗设计流程

基于IEEE1801(UPF)标准的低功耗设计实现流程 摘要 目前除了时序和面积,功耗已经成为集成电路设计中日益关注的因素。当前有很多种降低功耗的方法,为了在设计实现流程中更加有效的利用各种低功耗的设计方法,我们在最近一款芯片的设计实现以及验证流程中,使用了基于IEEE1801标准Unified Power Format(UPF)的完整技术,成功的完成了从RTL到GDSII 的全部过程,并且芯片制造回来成功的完成了测试。本文就其中的设计实现部分进行了详细探讨,重点介绍如何用UPF把我们的低功耗意图描述出来以及如何用Synopsys工具实现整个流程,希望给大家以启发。本文先介绍目前常用的低功耗设计的一些方法特别是用power-gating的方法来控制静态功耗以及UPF 的实现方法,然后阐述UPF在我们设计流程中的应用,并在介绍中引入了一些我们的设计经验,最后给出我们的结论。 关键字:IEEE1801, UPF,低功耗, 电源关断,Power-Gating, Isolation, IC-Compiler 1. 简介 1.1 深亚微米设计面临的挑战 随着工艺特征尺寸的缩小以及复杂度的提高,IC设计面临了很多挑战:速度越来越高,面积不断增大,噪声现象更加严重等。其中,功耗问题尤为突出,工艺进入130nm以下节点后,单位面积上的功耗密度急剧上升,已经达到封装、散热、以及底层设备所能支持的极限。随着工艺进一步达到90nm以下,漏电流呈指数级增加(如图1所示),在某些65nm设计中,漏电流已经和动态电流一样大,曾经可以忽略的静态功耗成为功耗的主要部分。功耗已成为继传统二维要素(速度、面积)之后的第三维要素。

压合制程简介教育内容

壓合製程簡介教育內容 一. 壓合流程介紹 二. 壓合製程原物料介紹 三. 壓合機介紹 四. 影響壓合品質因子 五. 常見壓合之不良項目及改善對策 六. 結論

一. 壓合流程介紹 1-1壓合流程: 黑化(或棕化) 打鉚釘 組合 疊板 上熱壓 上泠壓 拆板 裁半 X-RAY打靶 CNC外框. 1-2 檢驗重點: (1)黑化部份: ?藥液濃度、溫度 . ? Oxide Weight . ?烤箱溫度 . 黑化拉力test. (2)鉚釘對準度. (3)組合之P.P 是否正確. (4)疊板時的對準度. (5)熱壓的溫度.壓力設定. (6)裁半之板面檢查:針孔凹陷、鄒折、氣泡(击出)…… (7)漲縮值. (8)外框之尺寸及粗糙度. (9) 壓合後板厚測試.

二. 壓合製程原物料介紹 2-1 主要原料 2-1-1內層基板(Thin Laminate) (1)檢查重點: ?拉力強度. ?抗酸強度.(抗化學測試) ?表面檢查. 蝕銅後檢查板內. 爆板測試. (2) 一般內層基事板31mil 以下板為不含銅箔. 31 mil (含)以上板原為含銅箔. 2-1-2 膠片(prepreg) (1)檢查重點: ?膠流量(Resin flow) ?膠化時間(gel time) ?膠含量(Resin Content) (2)本廠常用的膠片(殘銅率100%) ? 7628 壓合後厚度7.1±0.7mil ? 2116 壓合後厚度4.2±0.4mil ? 7630 壓合後厚度8.2±0.8mil 1080 壓合後厚度2.5±0.25mil 1506 壓合後厚度6.0±0.6mil 2-1-3 銅箔(copper foil) (1)檢查重點: ?拉力強度.

FPGA低功耗设计技术

FPGA低功耗设计
北京理工大学雷达技术研究所
陈禾

本节内容
数字电路的功耗 低功耗设计技术 低功耗FPGA设计

CMOS电路的功耗来源
在数字CMOS电路中,功耗是 由三部分构成的: PTotal= Pdynamic + Pshort + Pleakage
VDD
PMOS Id out
其中Pdynamic是电路翻转时 in 产生的动态功耗,Pshort是 P管和N管同时导通时产生 的短路功耗,Pleakage是由 扩散区和衬底之间的反向 偏置漏电流引起的静态功 耗。
NMOS
Ishort
Ileakage
CL
VSS

CMOS电路的功耗来源
静态功耗
CMOS在静态时,P、N管只有一个导通。 由于没有Vdd到GND的直流通路,所以 CMOS静态功耗应当等于零。但在实际当 中,由于扩散区和衬底形成的PN结上存 在反向漏电流,产生电路的静态功耗。 静态功耗为:
Ps = × ∑ (反向电流 I )(电流电压
i n
Vdd)
其中:n为器件个数。

CMOS电路的功耗来源
动态功耗
CMOS电路在“0”和“1”的跳变过程中, 会形成一条从VDD通过P管网络和负载 电容到地的电流Id对负载电容进行充 电,产生动态功耗Pdynamic: Pdynamic=KCLVDD2f 其中K是在单位时间内的平均上跳次 数,f是时钟频率。

深亚微米下低功耗设计方法

深亚微米下低功耗设计方法 1.低功耗设计研究的背景和意义 自从晶体管的发明以来,集成电路的发展经历了从手工设计阶段、小规模集成电路设计阶段、大规模集成电路设计阶段以及现在的超大规模集成电路的设计阶段。特征尺寸的不断缩小可以使得单个片上系统可以集成更多的晶体管. 特征尺寸的发展经历了0.35um到0.18um的深亚微米阶段以及90nm、65nm、40nm、28nm、的超深亚微米阶段。 如今设计的芯片需要处理的数据量是巨大的,处理速度己达到的GHz水平, 处理器的处理速度和处理数据的能力都得到了很大的提高,单个芯片上集成的晶体管数目已经达到上亿级别。这些晶体管在单个芯片上按照GHz的频率运行时会产生大量功耗,以前设计的芯片只考虑芯片的时序和面积方面,而很少考虑功耗的因素,超深亚微米下,阈值电压也随之降低,导致亚阈值电流也随之增大,如下静态泄漏功耗可以达到动态功耗的水平。因而,功耗已经成为制约芯片朝着高速、高集成度方向发展的重要因素,功耗的大量增加会导致芯片工作状况的下降,影响芯片的质量,低功耗设计技术应运而生,成为集成电路设计工程师所必须掌握的设计技术。 2.低功耗技术的研究情况 低功耗设计技术要求在设计的初期就要将功耗考虑为设计的约束之一。常用的低功耗技术包括:门控时钟降低动态功耗的技术、多阈值电压优化降低静态功耗的技术、多电压设计降低动态功耗的技术、变阈值电压降低静态功耗的技术以及门控电源降低静态功耗的技术。下表1列出了低功耗几种方法的比较,以下所示的低功耗设计技术分别应用于设计的不同阶段进行,这些低功耗技术主要围绕电源电压、阈值电压以及频率等方面来降低功耗,反映了不同低功耗方法的动态静态功耗优化和面积、实现等参数的对比。 设计的不同阶段按照不同的抽象层次,可以分为工艺级、电路级、门级、寄 存器传输级、体系结构级以及系统级等设计层次上进行功耗的降低。一般抽象的层次越高所能降低的功耗越多,系统级所能降低的功耗是最多的,但同时实现的难度也是比较大的。

单片机低功耗设计

单片机系统的低功耗设计策略 摘要:嵌入式系统的低功耗设计需要全面分析各方面因素,统筹规划。在设计之初,各个因素往往是相互制约、相互影响的,一个降低系统功耗的措施有时会带来其他方面的“负效应”。因此,降低系统整体功耗,需要仔细分析和计算。本文从硬件和应用软件设计两个方面,阐述一个以单片机为核心的嵌入式系统低功耗设计时所需考虑的一些问题。 关键词:低功耗设计硬件设计应用软件设计低功耗模式 在嵌入式应用中,系统的功耗越来越受到人们的重视,这一点对于需要电池供电的便携式系统尤其明显。降低系统功耗,延长电池的寿命,就是降低系统的运行成本。对于以单片机为核心的嵌入式应用,系统功耗的最小化需要从软、硬件设计两方面入手。 随着越来越多的嵌入式应用使用了实时操作系统,如何在操作系统层面上降低系统功耗也成为一个值得关注的问题。限于篇幅,本文仅从硬件设计和应用软件设计两个方面讨论。 1 硬件设计 选用具有低功耗特性的单片机可以大大降低系统功耗。可以从供电电压、单片机内部结构设计、系统时钟设计和低功耗模式等几方面考察一款单片机的低功耗特性。 1.1 选用尽量简单的CPU内核 在选择CPU内核时切忌一味追求性能。8位机够用,就没有必要选用16位机,选择的原则应该是“够用就好”。现在单片机的运行速度越来越快,但性能的提升往往带来功耗的增加。一个复杂的CPU集成度高、功能强,但片内晶体管多,总漏电流大,即使进入STOP 状态,漏电流也变得不可忽视;而简单的CPU内核不仅功耗低,成本也低。 1.2 选择低电压供电的系统 降低单片机的供电电压可以有效地降低其功耗。当前,单片机从与TTL兼容的5 V供电降低到3.3 V、3 V、2 V乃至1.8 V供电。供电电压降下来,要归功于半导体工艺的发展。从原来的3 μm工艺到现在的0.25、0.18、0.13 μm工艺,CMOS电路的门限电平阈值不断降低。低电压供电可以大大降低系统的工作电流,但是由于晶体管的尺寸不断减小,管子的漏电流有增大的趋势,这也是对降低功耗不利的一个方面。 目前,单片机系统的电源电压仍以5 V为主,而过去5年中,3 V供电的单片机系统数量增加了1倍,2 V供电的系统也在不断增加。再过五年,低电压供电的单片机数量可能会超过5 V电压供电的单片机。如此看来,供电电压降低将是未来单片机发展的一个重要趋势。 1.3 选择带有低功耗模式的系统 低功耗模式指的是系统的等待和停止模式。处于这类模式下的单片机功耗将大大小于运行模式下的功耗。过去传统的单片机,在运行模式下有wait和stop两条指令,可以使单片机进入等待或停止状态,以达到省电的目的。 等待模式下,CPU停止工作,但系统时钟并不停止,单片机的外围I/O模块也不停止工作;系统功耗一般降低有限,相当于工作模式的50%~70%。 停止模式下,系统时钟也将停止,由外部事件中断重新启动时钟系统时钟,进而唤醒CPU继续工作,CPU消耗电流可降到μA级。在停止模式下,CPU本身实际上已经不消耗什么电流,要想进一步减小系统功耗,就要尽量将单片机的各个I/O模块关掉。随着I/O模块的逐个关闭,系统的功耗越来越小,进入停止模式的深度也越来越深。进入深度停止模式无异于关机,这时的单片机耗电可以小于20 nA。其中特别要提示的是,片内RAM停止供电后,RAM中存储的数据会丢失,也就是说,唤醒CPU后要重新对系统作初始化。因此在让系统进入深度停止状态前,要将重要系统参数保存在非易失性存储器中,如EEPROM中。深度停止模式关掉了所有的I/O,可能的唤醒方式也很有限,一般只能是复位或IRQ中断等。 保留的I/O模块越多,系统允许的唤醒中断源也就越多。单片机的功耗将根据保留唤醒方式的不同,降至1μA至几十μA之间。例如,用户可以保留外部键盘中断,保留异步串行

数字电路低功耗设计(二)

前面学习了进行低功耗的目的个功耗的构成,今天就来分享一下功耗的分析。由于是面向数字IC前端设计的学习,所以这里的功耗分析是基于DC中的power compiler工具;更精确的功耗分析可以采用PT,关于PT的功耗分析可以查阅其他资料,这里不涉及使用PT的进行功耗分析。 (1)功耗分析与流程概述 上一个小节中讲解了功耗的构成,并且结合工艺库进行简要地介绍了功耗的计算。但是实际上,我们根本不可能人工地计算实际的大规模集成电路的功耗,我们往往借助EDA工具帮我们分析电路的功耗。这里我们就介绍一下EDA工具分析功耗的(普遍)流程,然后下一小节我们将介绍低功耗电路的设计和优化。 ①功耗分析流程的输入输出 功耗分析的流程(从输入输出关系看)如下所示:

上面的图中,需要四种东西: ?tech library :这个就是包含功耗信息的工艺库了,比较精确 的库里面还应该包含状态路径(SDPD信息,代工厂提供。 ?netlist :设计的门级网表电路,可以通过DC综合得到。 -parasitic :设计中连线等寄生参数,比如寄生电容、寄生电阻, 这个一般是后端RC寄生参数工具提供,简单的功耗分析可以不需要这个文件。 ?switch activity :包含设计中每个节点的开关行为情况,比如 说节点的翻转率或者可以计算出节点翻转率的文件。这个开关行为输 入文件是很重要的。这个开关行为可以有不同的形式提供,因此就有 后面不同的分析功耗的方法。 (注意,不管使用什么方法进行功耗分析,功耗分析的时候,输入设 计文件的都是门级网表文件) ②开关行为的一些概念 说到开关行为,我们前面的翻转率也是一种开关行为。此外我们还有其他关于开关行为描述的概念,这里我们通过举例说明,如下图所示:

电子产品低功耗设计技巧

将低功耗设计进行到底! 现在,有许多单片机应用领域,都是用电池供电,节能成为设计工程师普遍关心的问题。希 望大家就这方面展开讨论。 以下提供一些讨论的方向: 1、如何降低系统功耗?(软件?硬件?) 2、各位在这方面有何经验教训?(可以拿出来与大家分享) 3、各种芯片的功耗比较? 4、SLEEP模式应用的注意事项? 5、一些新型的节能器件的介绍? 6、其它与低功耗设计相关的话题?…… 进入掉电模式 现在有很多的低功耗的片子,特别是在进入掉电模式之后,只有1uA的电流。也可以使用电源管理的方法,在不工作的时候,把系统电源关断,这样更省电 我用了很久51芯片,本来对它的功耗非常不满,但是因为其价格越来越便宜,本身的性价比依旧 很好,所以总也甩不掉。 1、休眠。一般的系统都不会到了忙不过来的地步,适当的休眠还是可以节省一些功耗的,在一些 简单的系统,多抽时间休眠成了省电的关键,你看别的芯片都不耗电,只有单片机了,它就是关 键了,在有些时候,提高主频反而会获取更多的休眠时间,反而使系统功耗更小了。但是值得注 意的是,经常性的切换休眠和工作状态会让电源产生mV级的波动,特别对于很多线性稳压器只有100mA以内的输出能力的情况更明显,这样的波动或许会影响系统内的AD和一些其他模拟电路,值得注意。 2、掉电。如果进入了掉电模式,很多51芯片是无法通过中断重新开始工作的,可以外加一个微功耗的单片机来提供复位,这个单片机只负责键盘扫描和复位51单片机,以及发送键盘编码到51芯片。我以前见过一个手持设备,耗电很小,但是包括了大容量存储、显示、输入、数据输出、检 索等功能,平时89C51总是处于掉电状态,但是有了键盘操作后,就复位开始运行,处理完键盘送来的任务之后又自动掉电了。 3、复杂运算。复杂运算(譬如指数运算、浮点乘除)一定会占据更多系统时序,响应减少休眠时间,可以通过查表方式,这样用大容量的表格代替了现场计算,更多的时间不就可以睡觉了吗? 4、如果软件任务少到一定程度,那么可以考虑把晶体搞到32k去运行,其实这样更省电,但是这 意味着51软件基本没什么高速的事情做,也不需要串行通信,否则,还是老老实实面对现实吧。 我觉得,51芯片用于电池供电的系统不是很合适,但是从开发周期看,它的开发环境很好,毕竟 可以承载8位机的相对大型的应用,有时候又不得不用它。我觉得距离51最靠近的A VR单片机更适合将来的应用,因为其性能价格比相对其他单片机还是不错的,除非51芯片可以将来做到在3MIP

UPF低功耗设计

Thursday, November 18, 2010 基于IEEE1801(UPF)标准的低功耗设计实现流程 Low-power Implementation Flow Based IEEE1801 (UPF) 郭军, 廖水清, 张剑景 华为通信技术有限公司 jguo@https://www.doczj.com/doc/7715930112.html, liaoshuiqing@https://www.doczj.com/doc/7715930112.html, zhangjianjing@https://www.doczj.com/doc/7715930112.html, Abstract Power consumption is becoming an increasingly important aspect of ASIC design. There are several different approaches that can be used to reduce power. However, it is important to use these low-power technology more effectively in IC design implementation and verification flow. In our latest low-power chip, we completed full implementation and verification flow from RTL to GDSII successfully and effectively by adopting IEEE1801 Unified Power Format (UPF). This paper will focus on UPF application in design implementation with Synopsys low power solution. It will highlight that how to describe our low-power intent using UPF and how to complete the design flow. This paper first illustrates current low-power methodology and UPF?s concept. Then, it discussed UPF application in detail. Finally, it gives our conclusion. Key words: IEEE1801, UPF, Low-Power, Shut-Down, Power Gating, Isolation, IC-Compiler 摘要 目前除了时序和面积,功耗已经成为集成电路设计中日益关注的因素。当前有很多种降低功耗的方法,为了在设计实现流程中更加有效的利用各种低功耗的设计方法,我们在最近一款芯片的设计实现以及验证流程中,使用了基于IEEE1801标准Unified Power Format(UPF)的完整技术,成功的完成了从RTL到GDSII的全部过程,并且芯片制造回来成功的完成了测试。本文就其中的设计实现部分进行了详细探讨,重点介绍如何用UPF把我们的低功耗意图描述出来以及如何用Synopsys工具实现整个流程,希望给大家以启发。本文先介绍目前常用的低功耗设计的一些方法特别是用power-gating的方法来控制静态功耗以及UPF的实现方法,然后阐述UPF在我们设计流程中的应用,并在介绍中引入了一些我们的设计经验,最后给出我们的结论。 关键字:IEEE1801, UPF,低功耗, 电源关断,Power-Gating, Isolation, IC-Compiler 1. 简介 1.1 深亚微米设计面临的挑战 随着工艺特征尺寸的缩小以及复杂度的提高,IC设计面临了很多挑战:速度越来越高,面积不断增大,噪声现象更加严重等。其中,功耗问题尤为突出,工艺进入130nm以下节点后,单位面积上的功耗密度急剧上升,已经达到封装、散热、以及底层设备所能支持的极限。随着工艺进一步达到90nm以下,漏电流呈指数级增加(如图1所示),在某些65nm设计中,漏电流已经和动态电流一样大,曾经可以忽略的静态功耗成为功耗的主要部分。功耗已成为继传统二维要素(速度、面积)之后的第三维要素。

系统低功耗设计

系统低功耗设计 论文关键词:集成电路低功耗设计SoC 论文摘要:功耗问题正日益变成VLSI系统实现的一个限制因素。对 便携式应用来说,其主要原因在于电池寿命,对固定应用则在于最高 工作温度。因为电子系统设计的复杂度在日益提升,导致系统的功耗 得到其主要功耗成分。其次,以该主要功耗成分数学表达式为依据, 突出实现SoC低功耗设计的各种级别层次的不同方法。 引言 从20世纪80年代初到90年代初的10年里,微电子领域的很多研究 工作都集中到了数字系统速度的提升上,现如今的技术拥有的计算水 平能够使强大的个人工作站、复杂实时语音和图像识别的多媒体计算 机的实现成为可能。高速的计算水平对于百姓大众来说是触指可及的,不像早些年代那样只为少数人服务。另外,用户希望在任何地方都能 访问到这种计算水平,而不是被一个有线的物理网络所束缚。便携水 平对产品的尺寸、重量和功耗加上严格的要求。因为传统的镍铬电池 每磅仅能提供20W.h的能量,因而功耗就变得尤为重要。电池技术正 在改进,每5年最大能将电池的性能提升30%,不过其不可能在短期内显著地解决现在正遇到的功耗问题。 虽然传统可便携数字应用的支柱技术已经成功地用于低功耗、低性能 的产品上,诸如电子手表、袖珍计算器等等,但是有很多低功耗、高 性能可便携的应用一直在增长。例如,笔记本计算机就代表了计算机 工业里增长最快的部分。它们要求与桌上计算机一样具有同样的计算 水平。同样的要求在个人通信领域也正在迅速地发展,如采用了复杂 语音编解码算法和无线电调制解调器的带袖珍通信终端的新一代数字 蜂窝网。已提出的未来个人通信服务PCS (PersonalCommunicationServices)应用对这些要求尤其明显,通用 可便携多媒体服务是要支持完整的数字语音和图像辨别处理的。在这 些应用中,不但语音,而且数据也要能在无线链路上传输。这就为实

低功耗的设计与实现方法22CMOS电路低功耗设计的基本方法和途径

低功耗的设计与实现方法 2.2CMOS 电路低功耗设计的基本方法和途径 根据2switch L DD P C V f α=???,在频率一定的情况下,功耗主要取决于3个因素:工作电压, 负载电容以及开关活动性,因此功耗优化主要从以上三方面着手。 2.2.1降低工作电压 功耗与工作电压的平方成正比,因此降低工作电压是降低功耗的有力措施。不需要改变电路的结构降低工作电压就可以取得减少功耗的显著效果,而且降低电压是针对整个芯片,而不是针对某一个单元,因此降低工作电压比减小负载电容和减小活动性更易见效。但是降低电压并不是无限制的,降低电压必须考虑电路的速度。图2-3显示了在不同设计阶段降低电压的措施。 图2-3.在不同设计阶段降低电压的措施 电压降低时,延时增加,导致电路性能的下降,如图2-4所示。由于CMOS 器件电流I dd ∝(V dd -V t )2,可得电路延时。当V dd >>V t ,时降低电压延时呈线性增加,此时可以用改变电路结构等措施来弥补低电压带来的延时增加,但当电压进一步降低到接近阈值电压时,漏电流迅速增大。为了避免这种情况发生,一般应保证它在0.13V ~0.11V 之间。 图2-4.工作电压对功耗和性能的影响 2.2.2降低负载电容 动态功耗与负载电容成正比,因此减小负载电容成为降低功耗的另外一个重要途径。在CMOS 电路中,电容主要由两方面构成:一方面是器件栅电容和节点电容,它们和器件工艺有关;另一方面是连线电容。值得注意的是,随着工艺的发展,连线电容已经超过器件电容。为了减小电容,在工艺方面可以选择小的器件,物理设计时减小连线长度。图2-5显示了在不同设计阶段降低负载电容的措施。

相关主题
文本预览
相关文档 最新文档