当前位置:文档之家› Fast and light boosting for adaptive mining of data streams

Fast and light boosting for adaptive mining of data streams

Fast and light boosting for adaptive mining of data streams
Fast and light boosting for adaptive mining of data streams

Fast and Light Boosting for Adaptive Mining of Data

Streams

Fang Chu and Carlo Zaniolo

fchu,zaniolo@https://www.doczj.com/doc/2e6861746.html,

University of California,Los Angeles,CA90095,USA

Abstract.Supporting continuous mining queries on data streams requires al-

gorithms that(i)are fast,(ii)make light demands on memory resources,and

(iii)are easily to adapt to concept drift.We propose a novel boosting ensem-

ble method that achieves these objectives.The technique is based on a dynamic

sample-weight assignment scheme that achieves the accuracy of traditional boost-

ing without requiring multiple passes through the data.The technique assures

faster learning and competitive accuracy using simpler base models.The scheme

is then extended to handle concept drift via change detection.The change detec-

tion approach aims at signi?cant data changes that could cause serious deteriora-

tion of the ensemble performance,and replaces the obsolete ensemble with one

built from scratch.Experimental results con?rm the advantages of our adaptive

boosting scheme over previous approaches.

keywords.stream data mining,adaptive boosting ensembles,change detection

1Introduction

A substantial amount of recent work has focused on continuous mining of data streams[4, 10,11,15,16].Typical applications include network traf?c monitoring,credit card fraud detection and sensor network management systems.Challenges are posed by data ever increasing in amount and in speed,as well as the constantly evolving concepts under-lying the data.Two fundamental issues have to be addressed by any continuous mining attempt.

Performance Issue.Constrained by the requirement of on-line response and by limited computation and memory resources,continuous data stream mining should con-form to the following criteria:(1)Learning should be done very fast,preferably in one pass of the data;(2)Algorithms should make very light demands on memory resources, for the storage of either the intermediate results or the?nal decision models.These fast and light requirements exclude high-cost algorithms,such as support vector machines; also decision trees with many nodes should preferably be replaced by those with fewer nodes as base decision models.

Adaptation Issue.For traditional learning tasks,the data is stationary.That is,the underlying concept that maps the features to class labels is unchanging[17].In the con-text of data streams,however,the concept may drift due to gradual or sudden changes of the external environment,such as increases of network traf?c or failures in sensors.In fact,mining changes is considered to be one of the core issues of data stream mining[5].

In this paper we focus on continuous learning tasks,and propose a novel Adaptive Boosting Ensemble method to solve the above problems.In general,ensemble meth-ods combine the predictions of multiple base models,each learned using a learning algorithm called the base learner[2].In our method,we propose to use very simple base models,such as decision trees with a few nodes,to achieve fast and light learn-ing.Since simple models are often weak predictive models by themselves,we exploit boosting technique to improve the ensemble performance.The traditional boosting is modi?ed to handle data streams,retaining the essential idea of dynamic sample-weight assignment yet eliminating the requirement of multiple passes through the data.This is then extended to handle concept drift via change detection.Change detection aims at signi?cant changes that would cause serious deterioration of the ensemble perfor-mance.The awareness of changes makes it possible to build an active learning system that adapts to changes promptly.

Related Work.Ensemble methods are hardly the only approach used for continu-ous learning.Domingos et al.[4]devised a novel decision tree algorithm,the Hoeffding tree,that performs asymptotically the same as or better than its batched version.This was extended to CVFDT in an attempt to handle concept drift[11].But,Hoeffding-tree like algorithms need a large training set in order to reach a fair performance,which makes them unsuitable to situations featuring frequent changes.Domeniconi et al.[3] designed an incremental support vector machine algorithm for continuous learning.

There has been work related to boosting ensembles on data streams.Fern et al.[6] proposed online boosting ensembles,and Oza et al.[12]studied both online bagging and online boosting.Frank et al.[7]used a boosting scheme similar to our boosting scheme.But none of these work took concept drift into consideration.

Previous ensemble methods for drifting data streams have primarily relied on bagging-style techniques[15,16].Street et al.[15]gave an ensemble algorithm that builds one classi?er per data block independently.Adaptability relies solely on retiring old clas-si?ers one at a time.Wang et al.[16]used a similar ensemble building method.But their algorithm tries to adapt to changes by assigning weights to classi?ers proportional to their accuracy on the most recent data block.As these two algorithms are the most related,we call them Bagging and Weighted Bagging,respectively,for later references in our experimental comparison.1

This paper is organized as follows.Our adaptive boosting ensemble method is pre-sented in section2,followed by a change detection technique in section3.Section4 contains experimental design and evaluation results,and we conclude in section5.

2Adaptive Boosting Ensembles

We use the boosting ensemble method since this learning procedure provides a number of formal guarantees.Freund and Schapire proved a number of positive results about its generalization performance[13].More importantly,Friedman et al.showed that boost-ing is particularly effective when the base models are simple[9].This is most desirable for fast and light ensemble learning on steam data.

In its original form,the boosting algorithm assumes a static training set.Earlier classi?ers increase the weights of misclassi?ed samples,so that the later classi?ers will 1The name“bagging”derives from their analogy to traditional bagging ensembles[1].

Algorithm 1Adaptive boosting ensemble algorithm

Ensure:Maintaining a boosting ensemble E b with classi?ers {C 1,···,C m },m ≤M .1:while (1)do

2:Given a new block B j ={(x 1,y 1),···,(x n ,y n )},where y i ∈{0,1},3:Compute ensemble prediction for sample i :E b (x i )=round (1m m k =1C k (x i )),4:Change Detection:E b ??if a change detected!

5:if (E b =?)then

6:Compute error rate of E b on B j :e j =E [1E b (x i )=y i ],7:Set new sample weight w i =(1?e j )/e j if E b (x i )=y i ;w i =1otherwise 8:else

9:set w i =1,for all i .

10:

end if 11:Learn a new classi?er C m +1from weighted block B j with weights {w i },

12:Update E b :add C m +1,retire C 1if m =M .

13:end while

focus on them.A typical boosting ensemble usually contains hundreds of classi?ers.However,this lengthy learning procedure does not apply to data streams,where we have limited storage but continuous incoming data.Past data can not stay long before making place for new data.In light of this,our boosting algorithm requires only two passes of the data.At the same time,it is designed to retain the essential idea of boosting—the dynamic sample weights modi?cation.

Algorithm 1is a summary of our boosting process.As data continuously ?ows in,it is broken into blocks of equal size.A block B j is scanned twice.The ?rst pass is to assign sample weights,in a way corresponding to AdaBoost.M1[8].That is,if the ensemble error rate is e j ,the weight of a misclassi?ed sample x i is adjusted to be w i =(1?e j )/e j .The weight of a correctly classi?ed sample is left unchanged.The weights are normalized to be a valid distribution.In the second pass,a classi?er is constructed from this weighted training block.

The system keeps only the most recent classi?ers,up to M .We use a traditional scheme to combine the predictions of these base models,that is,by averaging the prob-ability predictions and selecting the class with the highest probability.Algorithm 1is for binary classi?cation,but can easily be extended to multi-class problems.

Adaptability Note that there is a step called “Change Detection ”(line 4)in Algorithm 1.This is a distinguished feature of our boosting ensemble,which guarantees that the ensemble can adapt promptly to changes.Change detection is conducted at every block.The details of how to detect changes are presented in the next section.Our ensemble scheme achieves adaptability by actively detecting changes and dis-carding the old ensemble when an alarm of change is raised.No previous learning algorithm has used such a scheme.One argument is that old classi?ers can be tuned to the new concept by assigning them different weights.Our hypothesis,which is borne out by experiment,is that obsolete classi?ers have bad effects on overall ensemble per-formance even they are weighed down.Therefore,we propose to learn a new ensemble from scratch when changes occur.Slow learning is not a concern here,as our base

learner is fast and light,and boosting ensures high accuracy.The main challenge is to detect changes with a low false alarm rate.

3Change Detection

In this section we propose a technique for change detection based on the framework of statistical decision theory.The objective is to detect changes that cause signi?cant deterioration in ensemble performance,while tolerating minor changes due to random noise.Here,we view ensemble performance θas a random variable.If data is sta-tionary and fairly uniform,the ensemble performance ?uctuations are caused only by random noise,hence θis normally assumed to follow a Gaussian distribution.When data changes,yet most of the obsolete classi?ers are kept,the overall ensemble perfor-mance will undergo two types of decreases.In case of an abrupt change,the distribution of θwill change from one Gaussian to another.This is shown in Figure 1(a).Another situation is when the underlying concept has constant but small shifts.This will cause the ensemble performance to deteriorate gradually,as shown in Figure 1(b).Our goal is to detect both types of signi?cant changes.02040608010012014016018020000.1

0.2

0.3

0.4

0.5

0.6

0.7

0.8

0.9

1020406080100120140160180200

00.10.20.30.40.50.60.70.80.91(a)(b)

Fig.1.Two types of signi?cant changes.Type I:abrupt changes;Type II:gradual changes over a period of time.These are the changes we aim to detect.

Every change detection algorithm is a certain form of hypothesis test .To make a decision whether or not a change has occurred is to choose between two competing hypotheses:the null hypothesis H 0or the alternative hypothesis H 1,corresponding to a decision of no-change or change ,respectively.Suppose the ensemble has an accuracy θj on block j .If the conditional probability density function (pdf )of θunder the null hypothesis p (θ|H 0)and that under the alternative hypothesis p (θ|H 1)are both known,we can make a decision using a likelihood ratio test :

L (θj )=p (θj |H 1)p (θj |H 0)H 1?H 0τ.(1)

The ratio is compared against a threshold τ.H 1is accepted if L (θj )≥τ,and rejected otherwise.τis chosen so as to ensure an upper bound of false alarm rate.

Now consider how to detect a possible type I change.When the null hypothesis H 0(no change)is true,the conditional pdf is assumed to be a Gaussian,given by

p (θ|H 0)=1√2πσ20

exp ?(θ?μ0)2

2σ20 ,(2)

where the mean μ0and the variance σ20can be easily estimated if we just remember

a sequence of most recent θ’s.But if the alternative hypothesis H 1is true,it is not possible to estimate P (θ|H 1)before suf?cient information is collected.This means a long delay before the change could be detected.In order to do it in time fashion,we perform a signi?cance test that uses H 0alone.A signi?cant test is to assess how well the null hypothesis H 0explains the observed θ.Then the general likelihood ratio test in Equation 1is reduced to:

p (θj |H 0)H 0?H 1τ.

(3)

When the likelihood p (θj |H 0)≥τ,the null hypothesis is accepted;otherwise it is rejected.Signi?cant tests are effective in capturing large,abrupt changes.

For type II changes,we perform a typical hypothesis test as follows.First,we split the history sequence of θ’s into two halves.A Gaussian pdf can be estimated from each half,denoted as G 0and G 1.Then a likelihood ratio test in Equation 1is conducted.

So far we have described two techniques aiming at two types of changes.They are integrated into a two-stage method as follows.As a ?rst step,a signi?cant test is performed.If no change is detected,then a hypothesis test is performed as a second step.This two-stage detection method is shown to be very effective experimentally.4Experimental Evaluation

In this section,we ?rst perform a controlled study on a synthetic data set,then apply the method to a real-life application.

In the synthetic data set,a sample x is a vector of three independent features ,x i ∈[0,1],i =0,1,2.Geometrically,samples are points in a 3-dimension unit cube.The class boundary is a sphere de?ned as:B (x )= 2i =0(x i ?c i )2?r 2=0,where c is the center of the sphere,r the radius.x is labelled class 1if B (x )≤0,class 0otherwise.This learning task is not easy,because the feature space is continuous and the class boundary is non-linear.

We evaluate our boosting scheme extended with change detection,named as Adap-tive Boosting ,and compare it with Weighted Bagging and Bagging .

In the following experiments,we use decision trees as our base model,but the boost-ing technique can,in principle,be used with any other traditional learning model.The standard C4.5algorithm is modi?ed to generate small decision trees as base models,with the number of terminal nodes ranging from 2to 32.Full-grown decision trees gen-erated by C4.5are also used for comparison,marked as fullsize in Figure 2-4and Table 1-2.

4.1Evaluation of Boosting Scheme

The boosting scheme is ?rst compared against two bagging ensembles on stationary data.Samples are randomly generated in the unit cube.Noise is introduced in the train-ing data by randomly ?ipping the class labels with a probability of p .Each data block has n samples and there are 100blocks in total.The testing data set contains 50k noise-less samples uniformly distributed in the unit cube.An ensemble of M classi?ers is maintained.It is updated after each block and evaluated on the test data set.Perfor-mance is measured using the generalization accuracy averaged over 100ensembles.

0.7 0.75

0.8

0.85

0.9

0.95fullsize 3216

842A v e r a g e A c c u r a c y # Decision Tree Terminal Nodes Adaptive Boosting Bagging

Fig.2.Performance comparison of the adaptive boosting vs the bagging on stationary data.The

weighted bagging is omitted as it performs almost the same as the bagging.

Figure 2shows the generalization performance when p=5%,n=2k and M=30.Weighted bagging is omitted from the ?gure because it makes almost the same pre-dictions as bagging,a not surprising result for stationary data.Figure 2shows that the boosting scheme clearly outperforms bagging.Most importantly,boosting ensembles with very simple trees performs well.In fact,the boosted two-level trees(2terminal nodes)have a performance comparable to bagging using the full size trees.This sup-ports the theoretical study that boosting improves weak learners.

Higher accuracy of boosted weak learners is also observed for (1)block size n of 500,1k,2k and 4k,(2)ensemble size M of 10,20,30,40,50,and (3)noise level of 5%,10%and 20%.

0.7 0.75

0.8

0.85

0.9

0.95fullsize 3216

842A v e r a g e A c c u r a c y # Decision Tree Terminal Nodes Adaptive Boosting Weighted Bagging Bagging

Fig.3.Performance comparison of the three ensembles on data with small gradual concept shifts.

4.2Learning with Gradual Shifts

Gradual concept shifts are introduced by moving the center of the class boundary be-tween adjacent blocks.The movement is along each dimension with a step of ±δ.The value of δcontrols the level of shifts from small to moderate,and the sign of δis ran-domly assigned.The percentage of positive samples in these blocks ranges from 16%to 25%.Noise level p is set to be 5%,10%and 20%across multiple runs.

The average accuracies are shown in Figure 3for small shifts (δ=0.01),and in Figure 4for moderate shifts (δ=0.03).Results of other settings are shown in Table 1.These experiments are conducted where the block size is 2k.Similar results are obtained for other block sizes.The results are summarized below:

0.7

0.75

0.8

0.85

0.9

0.95fullsize 3216

842A v e r a g e A c c u r a c y # Decision Tree Terminal Nodes Adaptive Boosting Weighted Bagging Bagging

Fig.4.Performance comparison of the ensembles on data with moderate gradual concept shifts.δ=.005δ=.02

248fullsize 248fullsize

Adaptive Boosting 89.2%93.2%93.9%94.9%92.2%94.5%95.7%95.8%

Weighted Bagging 71.8%84.2%89.6%91.8%83.7%92.0%93.2%94.2%

Bagging 71.8%84.4%90.0%92.5%83.7%91.4%92.4%90.7%

Table 1.Performance comparison of the ensembles on data with varying levels of concept shifts.Top accuracies shown in bold fonts.

–Adaptive boosting outperforms two bagging methods at all time,demonstrating the

bene?ts of the change detection technique;and

–Boosting is especially effective with simple trees (terminal nodes ≤8),achieving

a performance compatible with,or even better than,the bagging ensembles with large trees.

4.3Learning with Abrupt Shifts

We study learning with abrupt shifts with two sets of experiments.Abrupt concept shifts are introduced every 40blocks;three abrupt shifts occur at block 40,80and 120.In one set of experiments,data stays stationary between these blocks.In the other set,small shifts are mixed between adjacent blocks.The concept drift parameters are set to be δ1=±0.1for abrupt shifts ,and δ2=±0.01for small shifts.

Figure 5and Figure 6show the experiments when base decision trees have no more than 8terminal nodes.Clearly the bagging ensembles,even with an empirical weight-ing scheme,are seriously impaired at changing points.Our hypothesis,that obsolete classi?ers are detrimental to overall performance even if they are weighed down,are proved experimentally.Adaptive boosting ensemble,on the other hand,is able to re-spond promptly to abrupt changes by explicit change detection efforts.For base models of different sizes,we show some of the results in Table 2.The accuracy is averaged over 160blocks for each run.

4.4Experiments on Real Life Data

In this subsection we further verify our algorithm on a real life data containing 100k credit card transactions.The data has 20features including the transaction amount,the time of the transaction,etc.The task is to predict fraudulent transactions.Detailed data

0.75 0.8

0.85

0.9

0.95

0 20 40 60 80

100 120 140 160

A c c u r a c y

Data Blocks Adaptive Boosting Weighted Bagging Bagging

Fig.5.Performance comparison of the three ensembles on data with abrupt shifts.Base decision trees have no more than 8terminal nodes. 0.7

0.75

0.8

0.85

0.9

0.95

0 20 40 60 80

100 120 140 160

A c c u r a c y Data Blocks Adaptive Boosting Weighted Bagging Bagging Fig.6.Performance comparison of the three ensembles on data with both abrupt and small shifts.Base decision trees have no more than 8terminal nodes.

description is given in [14].The part of the data we use contains 100k transaction each with a transaction amount between $0and $21.Concept drift is simulated by sorting transactions by changes by the transaction amount.

We study the ensemble performance using varying block sizes (1k,2k,3k and 4k),and different base models (decision trees with terminal nodes no more than 2,4,8and full-size trees).We show one experiment in Figure 7,where the block size is 1k,and the base models have at most 8terminal nodes.The curve shows three dramatic drops in accuracy for bagging,two for weighted bagging,but only a small one for adaptive boosting.These drops occur when the transaction amount jumps.Overall,the boosting ensemble is much better than the two baggings.This is also true for the other experiments,whose details are omitted here due to space limit.

The boosting scheme is also the fastest.Moreover,the training time is almost not affected by the size of base models.This is due to the fact that the later base models

δ2=0.00δ2=±0.01δ1=±0.1

4fullsize 4fullsize Adaptive Boosting

93.2%95.1%93.1%94.1%Weighted Bagging

86.3%92.5%86.6%91.3%Bagging 86.3%92.7%85.0%88.1%

Table 2.Performance comparison of three ensembles on data with abrupt shifts or mixed shifts.Top accuracies are shown in bold fonts. 0.6

0.65

0.7

0.75

0.8

0.85

0.9

0.95

0 20 40

60 80 100A c c u r a c y Data Blocks Adaptive Boosting Weighted Bagging Bagging

Fig.7.Performance comparison of the three ensembles on credit card data.Concept shifts are simulated by sorting the transactions by the transaction amount.

tend to have very simple structures;many of them are just decision stumps (one level decision trees).On the other hand,training time of the bagging methods increases dra-matically as the base decision trees grow larger.For example,when the base decision tree is full-grown,the weighted bagging takes 5times longer to do the training and produces a tree 7times larger on average.The comparison is conducted on a 2.26MHz Pentium 4Processor.Details are shown in Figure 8.

To summarize,the real application experiment con?rms the advantages of our boost-ing ensemble methods:it is fast and light,with good adaptability.

5Summary and Future Work

In this paper,we propose an adaptive boosting ensemble method that is different from previous work in two aspects:(1)We boost very simple base models to build effective ensembles with competitive accuracy;and (2)We propose a change detection technique to actively adapt to changes in the underlying concept.We compare adaptive boosting ensemble methods with two bagging ensemble-based methods through extensive exper-iments.Results on both synthetic and real-life data set show that our method is much faster,demands less memory,more adaptive and accurate.

The current method can be improved in several aspects.For example,our study of the trend of the underlying concept is limited to the detection of signi?cant changes.If changes can be detected on a ?ner scale,new classi?ers need not be built when changes are trivial,thus training time can be further saved without loss on accuracy.We also plan to study a classi?er weighting scheme to improve ensemble accuracy.

T o t a l T r a i n i n g T i m e o n A l l D a t a B l o c k s (s )

block size 050100150200250A v g T r e e N o d e s L e a r n e d F r o m B l o c k s block size (a)(b)

https://www.doczj.com/doc/2e6861746.html,parison of the adaptive boosting and the weighted bagging,in terms of (a)building time,and (b)average decision tree size.In (a),the total amount of data is ?xed for different block sizes.

References

1.L.Breiman.Bagging predictors.In ICML ,1996.

2.T.Dietterich.Ensemble methods in machine learning.In Multiple Classi?er Systems ,2000.

3. C.Domeniconi and D.Gunopulos.Incremental support vector machine construction.In

ICDM ,2001.

4.P.Domingos and G.Hulten.Mining high-speed data streams.In ACM SIGKDD ,2000.

5.Guozhu Dong,Jiawei Han,Laks V https://www.doczj.com/doc/2e6861746.html,kshmanan,Jian Pei,Haixun Wang,and Philip S.Yu.

Online mining of changes from data streams:Research problems and preliminary results.In ACM SIGMOD MPDS ,2003.

6. A.Fern and R.Givan.Online ensemble learning:An empirical study.In ICML ,2000.

7. E.Frank,G.Holmes,R.Kirkby,and M.Hall.Racing committees for large datasets.In

Discovery Science ,2002.

8.Y .Freund and R.Schapire.Experiments with a new boosting algorithm.In ICML ,1996.

9.J.Friedman,T.Hastie,and R.Tibshirani.Additive logistic regression:A statistical view of

boosting.In The Annals of Statistics,28(2):337–407,1998.

10.V .Ganti,J.Gehrke,R.Ramakrishnan,and W.Loh.Mining data streams under block evolu-

tion.In SIGKDD Explorations 3(2):1-10,2002.

11.G.Hulten,L.Spencer,and P.Domingos.Mining time-changing data streams.In ACM

SIGKDD ,2001.

12.N.Oza and S.Russell.Experimental comparisons of online and batch versions of bagging

and boosting.In ACM SIGKDD ,2001.

13.R.Schapire,Y .Freund,and P.Bartlett.Boosting the margin:A new explanation for the

effectiveness of voting methods.In ICML ,1997.

14.S.Stolfo,W.Fan,W.Lee,A.Prodromidis,and P.Chan.Credit card fraud detection using

meta-learning:Issues and initial results.In AAAI-97Workshop on Fraud Detection and Risk Management ,1997.

15.W.Street and Y .Kim.A streaming ensemble algorithm (sea)for large-scale classi?cation.

In ACM SIGKDD ,2001.

16.H.Wang,W.Fan,P.Yu,and J.Han.Mining concept-drifting data streams using ensemble

classi?ers.In ACM SIGKDD ,2003.

17.G.Widmer and M.Kubat.Learning in the presence of concept drift and hidden contexts.In

Machine Learning ,1996.

SDN及ODL概括性总结

1、SDN是什么? SDN(Software Defined Network)即软件定义网络,是一种网络设计理念。网络硬件可以集中式软件管理,可编程化,控制转发层面分开,则可以认为这个网络是一个SDN网络。SDN 不是一种具体的技术,不是一个具体的协议,而是一个思想,一个框架,只要符合控制和转发分离的思路就可以认为是SDN. 2、传统网络面临的问题? 1)传统网络部署和管理非常麻烦,网络厂商杂,设备类型多,设备数量多,命令行不一致2)流量全局可视化难 3)分布式架构中,当网络发生震荡时,网络收敛过程中,有可能出现冗余的路径通告信息4)网络流量的剧增,导致底层网络的体积膨胀、压力增大;网络体积越大的话,需要收敛的时间就越长 5)想自定义设备的转发策略,而不是网络设备里面的固定好的转发策略 -------->sdn网络可以解决的问题 3、SDN的框架是什么 SDN框架主要由,应用层,控制层,转发层组成。其中应用层提供应用和服务(网管、安全、流控等服务),控制层提供统一的控制和管理(协议计算、策略下发、链路信息收集),转发层提供硬件设备(交换机、路由器、防火墙等)进行数据转发、 4、控制器 1)控制器概述 在整个SDN实现中,控制器在整个技术框架中最核心的地方控制层,作用是上接应用,下接设备。在SDN的商业战争中,谁掌握了控制器,或者制定了控制器的标准,谁在产业链条中就最有发言权 2)控制器功能 南向功能支撑:通过openflow等南向接口技术,对网络设备进行管控,拓扑发现,表项下

发,策略指定等 北向功能:目前SDN技术中只有南向技术有标准文案和规范,而北向支持没有标准。即便如此,控制器也需要对北向接口功能进行支持,REST API,SOAP,OSGI,这样才能够被上层的应用调用 东西向功能支持:分布式的控制器架构,多控制器之间如何进行选举、协同、主备切换等3)控制器的种类 目前市场上主要的控制器类型是:opendaylight (开发语言Java),Ryu(开发语言python), FloodLihgt(开发语言Java)等等 5、opendaylight(ODL)控制器介绍 ODL拥有一套模块化、可插拔灵活地控制平台作为核心,这个控制平台基于Java开发,理论上可以运行在任何支持Java的平台上,从Helium版本开始其官方文档推荐的最佳运行环境是最新的Linux(Ubuntu 12.04+)及JVM1.7+。 ODL控制器采用OSGi框架,OSGi框架是面向Java的动态模型系统,它实现了一个优雅、完整和动态的组件模型,应用程序(Bundle)无需重新引导可以被远程安装、启动、升级和卸载,通过OSGi捆绑可以灵活地加载代码与功能,实现功能隔离,解决了功能模块可扩展问题,同时方便功能模块的加载与协同工作。自Helium版本开始使用Karaf架构,作为轻量级的OSGi架构,相较于早前版本的OSGi提升了交互体验和效率,当然其特性远不仅仅于此。 ODL控制平台引入了SAL(服务抽象层),SAL北向连接功能模块,以插件的形式为之提供底层设备服务,南向连接多种协议,屏蔽不同协议的差异性,为上层功能模块提供一致性服务,使得上层模块与下层模块之间的调用相互隔离。SAL可自动适配底层不同设备,使开发者专注于业务应用的开发。 此外,ODL从Helium开始也逐渐完成了从AD-SAL(Application Driven Service Abstraction Layer)向MD-SAL(Model Driven Service Abstraction Layer)的演进工作,早前的AD-SAL,ODL控制平台采用了Infinispan技术,In?nispan是一个高扩展性、高可靠性、键值存储的分布式数据网格平台,选用Infinispan来实现数据的存储、查找及监听,用开源网格平台实现controller的集群。MD-SAL架构中采用Akka实现分布式messageing。 6、ODL的总体框架 ODL控制器主要包括开放的北向API,控制器平面,以及南向接口和协议插件。北向API 有OSGI和REST两类,同一地址空间应用使用OSGI类,而不同地址空间的应用则使用REST 类。OSGI是有状态的连接,有注册机制,而rest是无状态链接。上层应用程序利用这些北

上市公司投资分析报告参考框架

上市公司投资价值分析报告参考框架 一、公司背景及简介 1、成立时间、创立者、性质、主营业务、所属行业、注册地; 2、所有权结构、公司结构、主管单位; 3、公司重大事件(如重组、并购、业务转型等)。 二、公司所属行业特征分析 1、产业结构: ①该行业中厂商的大致数目及分布; ②产业集中度:该行业中前几位的厂商所占的市场份额、市场占有率的具体数据(一般衡量指标为四厂商集中度或八厂商集中度); ③进入壁垒和退出成本:具体需要何种条件才能进入,如资金量、技术要求、人力成本、国家相关政策等,以及厂商退出该行业需花费的成本和转型成本等。 2、产业增长趋势: ①年增长率(销售收入、利润)、市场总容量等的历史数据; ②依据上述历史数据,及科技与市场发展的可能性,预测该行业未来的增长趋势; ③分析影响增长的原因:探讨技术、资金、人力成本、技术进步等因素是如何影响行业增长的,并比较各自的影响力。(应提供有关专家意见)。 3、产业竞争分析: ①行业内的竞争概况和竞争方式; ②对替代品和互补品的分析:替代品和互补品行业对该行业的影响、各自的优劣势、未来趋势; ③影响该行业上升或者衰落的因素分析; ④分析加入WTO对整个行业的影响,及新条件下其优劣势所在。 4、相关产业分析:

①列出上下游行业的具体情况、与该行业的依赖情况、上下游行业的发展前景,如可能,应作产业相关度分析; ②列出上下游行业的主要厂商及其简要情况。 5、劳动力需求分析: ①该行业对人才的主要要求,目前劳动力市场上的供需情况; ②劳动力市场的变化对行业发展的影响。 6、政府影响力分析: ①分析国家产业政策对行业发展起的作用(政府的引导倾向、各种优惠措施等); ②其它相关政策的影响:如环保政策、人才政策、对外开放政策等。 三、公司治理结构分析 1、股权结构分析:列出持股10%(必要时列出10%)以上的股东,有可能应找到最终持有人; 2、是否存在影响公司的少数股东,如存在分析该股东的最终持有人等情况,及其在资本市场上的操作历史; 3、“三会”的运行情况:如股东大会的参加情况、对议案的表决情况、董事会董事的出席情况、表决情况、监事会的工作情况及其效率; 4、经理层状况:总经理的权限等; 5、组织结构分析:公司的组织结构模式、管理方式、效率等; 6、主要股东、董事、管理人员的背景、业绩、声誉等; 7、重点分析公司第一把手的情况(教育背景、经营业绩、任职期限、政府背景)其在公司中的作用; 8、分析公司中层管理人员的总体情况,如素质、背景、对公司管理理念的理解、忠诚度等。 四、主营业务分析 1、主导产品 ①名称、价格、质量、产品生命周期、公司规模、特许经营、科技含量、占有

IMF宏观经济模型

国际货币基金组织宏观经济分析 摘要:本文对国际基金组织的宏观经济分析框架进行探讨。该分析框架主要包括四部门分析方法、CEGR 汇率评估方法、债务可持续性分析、全球经济模型(GEM)等具体内容。从中可以体现出基金组织宏观经济分析中系统性的思维方式、市场化的基本理念以及用数据说话、注重实际调查、强调国别经济的比较研究等特点。在上述基础上,我们可看到其经济分析中面临着经济问题的政治化、技术工具的科学性以及政策建议的及时性等方面的挑战。最后,我们得出一些重要的启示与借鉴。 关键词:宏观经济,汇率,国际货币基金组织 一、引言 上世纪两次世界大战结束之后,为了充分吸取战争的教训,避免各国在经济政策方面的矛盾,加强宏观政策协调和货币金融合作,国际货币基金组织(IMF)应运而生。作为在布雷顿森林体系下建立起来的国际机构,基金组织已经历了六十多年的发展历程,对促进世界经济的发展和维护全球金融的稳定发挥了重要的作用。近年来,尽管基金组织受到了各种批评和改革的压力,但作为当前货币金融领域最重要的国际机构,其领导地位仍然是其他机构在短期内难以超越的。特别是在宏观经济的研究方面,基金组织拥有强大的资源优势和竞争实力,长期以来形成了良好的声誉。基金组织定期发布的经济预测以及出版的《世界经济展望》、《区域经济展望》、《全球金融稳定报告》等已经成为全球经济分析领域不可或缺的重要资源。 值得一提的是,在关于中国宏观经济的研究领域,目前基金组织已几乎成为了中国区首席经济学家的“摇篮”。我们可以很清楚地看到,在各类金融机构和组织的中国经济分析团队中(摩根士坦利、高盛、德意志银行、瑞银、美洲银行、巴克莱、中国国际金融公司、中国进出口银行、香港金管局、美国经济研究局等)的主要研究人员都直接来自于基金组织。事实上,这些首席经济学家们的研究方法正在潜移默化地影响着中国宏观经济分析的导向。无庸质疑的是,他们的研究方法都充分吸收了基金组织宏观经济分析框架的有关内容,这也在一定程度上表明基金组织的分析框架在现实中的成功。 二、基金组织宏观经济分析框架的主要内容 基金组织有一套完整的分析宏观经济的方法和数据库系统,其研究的成果直接体现在基金组织第四条款磋商、工作论文及其众多出版物之中。归纳起来,该分析框架主要包括以下四个方面的内容: (一)宏观经济的四部门分析方法 在基金组织的分析框架中,整个宏观经济可以简单地分成四个部门:实体经济部门、对外部门、货币部门和财政部门(如图1)。宏观经济是不断变化的系统,各个变量相互影响,一个变量的变动可能引发其它一系列变量的变动。

公司分析框架

项目投资价值分析报告 第一部分概述 项目名称: 项目单位: 一、企业简介 1、目标企业得历史沿革,隶属关系,企业性质及制度;目前职工人数。 2、地理位置,占地面积;各交通运输条件(铁、公路、码头与航空港口等),运输方式。 3、年设计及实际生产能力,运营状况。 4、产品种类,主导产品名称及产量。 5、能源供应条件(水、电、汽、气、冷冻等)配套情况。 6、主要原、辅、燃料得供应量及距离,费用情况。 7、产品质量状况及产品在国内、外市场得定位与知名度。 8、产品出口量、主要国家与国外市场份额。

二、项目概要 三、简要分析结论 第二部分团队与管理 一、董事长、法人代表 二、原有股东情况 三、主要管理人员 四、主要技术负责人员 五、员工与管理 管理及人力资源评价指标 1、内部调控就是否合理 2、管理组织体系就是否健全 3、管理层就是否稳定团结 4、管理层对市场拓展、技术开发得重视程度 5、有否科学得人才培训计划 6、各层面得执行情况

第三部分产品与技术 一、产品介绍 二、产品应用领域及性能特点 三、主要技术内容 四、技术先进性 五、产品技术指标 六、国内外技术发展状况 产品评价指标 1)产品就是否具有独特性,难以替代 2)产品得开发周期 3)产品得市场潜力 4)产品得产业化情况 5)产品结构就是否合理 6)产品得生产途径 技术评价指标 1)技术得专有性(技术来源) 2)技术得保密性(专利保护) 3)技术得领先性 技术开发 1)技术开发投入占总收入得比重2)技术开发体系与机构 3)技术储备情况

第四部分市场及竞争分析 一、市场需求 二、目前得市场状况 产品市场分布 三、产品应用市场前景分析 四、产品市场需求预测 五、产品市场竞争力分析 (1)产品质量竞争力分析 (2)生产成本竞争力分析 (3)产品技术竞争力分析 六、主要竞争对手分析 (1)国内主要竞争对手分析,列出前20名。做出竞争对手一览表。(2)国外竞争对手分析 (3)潜在竞争对手分析 (4)竞争对手融资情况、技术情况、资产规模情况 七、市场竞争状况分析 (1)市场垄断情况 (2)该行业就是否存在剩余生产能力,目前就是什么情形?(3)该行业转换成本高低 (4)该行业进入壁垒与退出壁垒 八、企业发展趋势与行业发展趋势比较 (1)技术发展趋势比较

ODL之SDN入门篇

本文作为码农学ODL系列的SDN基础入门篇,分为两部分。第一部分,主要讲述SDN是什么,改变了什么,架构是什么样的,第二部分,简要介绍如何去学习SDN。 1.什么是SDN SDN(Software Define Network) ,即为软件定义网络,可以看成网络界的操作系统。从SDN的提出至今,其内涵和外延也不断地发生变化,越来越多的人认为“可以集中控制、开放可编程和转控分离的网络”就是SDN网络,并且还延伸出软件定义计算、软件定义存储以及软件定义安全等。SDN加快了新业务引入的速度,提升了网络自动化运维能力,同时,也降低了运营成本。SDN的基础

知识如下图所示,下面各小节内容将根据该图内容进行展开论述: 1.1.SDN基础 1.1.1.SDN本质及核心 我们知道,传统网络中的路由器也存在控制平面和转发平面,在高端的路由器或交换机还采用物理分离,主控板上的CPU不负责报文转发,专注于系统的控制;而业务板则专注于数据报文转发。所以路由器或交换机内的控制平面与转发平面相对独立又协同工作,如图所示:

但这种分离是封闭在被称为“盒子”的交换机或路由器上,不可编程;另一方面,从IP网络的维度来考虑,采用的是分布式控制的方式:在控制面,每台路由器彼此学习路由信息,建立各自的路由转发表;在数据面,每台路由器收到一个IP 包后,根据自己的路由转发表做IP转发; IP网络的这种工作方式带来了运维成本高、业务上线慢等问题,并越来越难以满足新业务的需求,传统上通过添加新协议、新设备等手段来缓解问题的方式,收益越来越少。穷则思变,许多人产生了革命的想法,现有的网络架构既然无法继续演进发展,为何不推倒重来,重新定义网络呢?真可谓“时势造英雄”,2006年斯坦福大学Nick McKeown教授为首的研究团队提出了OpenFlow的概念用于校园网络的试验创新,后续基于OpenFlow给网络带来可编程的特性,SDN (Software Defined Network)的概念应运而生。 SDN将原来封闭在“盒子”的控制平面抽取出来形成一个网络部件,称之为SDN 控制器,这个控制器完全由软件来实现,控制网络中的所有设备,如同网络的大脑,而原来的“盒子”只需要听从SDN控制器的命令进行转发就可以了。在SDN 的理念下,所有我们常见的路由器、交换机等设备都变成了统一的转发器,而所有的转发器都直接接受SDN控制器的指挥,控制器和转发设备间的接口就是OpenFlow协议。其简单模型如图所示:

风险投资报告框架

********项目尽职调查及投资分析报告 ****基金 二零一二年十一月

摘要 ●公司简介 公司名称: 所属行业: 注册资本: 注册地址: ●项目简介 ●本次融资方案: ●盈利预期 ●上市计划 。

目录 第一部分本次投资概要 (6) 1.1 目标公司概况 (6) 1.2 融资主体 (6) 1.3投资方案 (6) 1.4 投资亮点 (6) 1.4.1 国家大力支持行业 (6) 1.4.2 行业发展前景广阔 (6) 1.4.3 技术优势 (6) 1.4.3 人力 (7) 1.5 投资风险管理 (7) 1.5.1 产品进入市场风险 (7) 1.5.2 生产风险 (7) 1.5.3 财务风险 (7) 1.5.4 团队管理风险 (7) 第二部分公司基本概况 (7) 2.1 公司简介 (7) 2.2 历史沿革及股权变更 (7) 2.3 公司组织机构 (8) 2.3 公司管理层 (8) 2.3.1管理层主要人员 (8) 2.3.2管理/技术人员变动情况 (8) 2.3.3管理层团队评价 (8) 2.4 员工结构 (8) 2.5 薪酬结构 (8) 2.5.1薪金制度 (8) 2.5.2奖励计划 (8) 2.5.3保险、福利计划 (8) 第三部分技术及产品 (8) 3.1 主要核心技术 (8) 3.1.1技术来源及所有权情况 (8) 3.1.2 技术先进性 (9) 3.1.3专利情况 (9) 3.1.4 研发能力说明 (9) 3.2 主要产品及特点 (9) 3.2.******************** (9) 3.2.2 国内其他产品比较 (9) 3.2.3 市场壁垒 (9)

基本面分析框架介绍(DOC)

投资理念总结 清晰的买股逻辑:如果不能持有一个股票1年以上,就不要去碰它!!!(铁律)理念的介绍: 运用自下而上的分析方法,减少对宏观经济政策的预测,不受媒体情绪的影响干扰,保持思维独立和客观。交易以左侧为主,对“事件分析”多从事物的对立面思考,立足于企业的价值(价格)(主要是低于行业平均的估值:低PE,低PB,低PC,加上适度成长:年复合10%以上),不追市场热点(可考虑提前伏击热点),有足够的耐心等待合适的价格出现,不可贪胜,中长期持股(做好一年以上的持股周期)。先做好低估值,未来再将标的股往潜在的伟大公司拓展。控制股票的仓位,时刻提醒自己,在市场中活着才是最重要的。 股市有句话:会买的是徒弟,会卖的才是师傅。我的任务是把“买”做好,把选股做好,把基本面分析再深入和详尽一些,把该考虑的问题以及未来可能会面临的抉择(最坏的情况)做一个预演,来坚定自己的持股信念!把“卖”交给时间和制定的规则。 一、选股标准,切记规避价值陷阱(低估值是由于市场因素和行业周期造成): 1)缓慢增长型个股:低PE<20倍;市值<100亿;分红率>2%;适度的利润增长率>10%;资产结构稳健。有点类似于彼得林奇的“沙漠之花”。 2)小市值(50亿以内)+新行业(互联网、软件、新材料、高端装备等)+低估值(动态PE<30倍)+安全边际; 安全边际主要来自合适的价格,其他的因素包括:董监高增持,定增(有大股东、核心高管、高知名度机构参与),员工持股(股权激励)等;当股价跌入安全区域后,再结合基本面进一步分析; 3)周期股:这是一块很大的市场,包括:有色、钢铁、煤炭、化工、地产、汽车制造等,周期股需要较好的基本面分析功底,把整个行业包括上下游的都有一个详细的理解和跟踪,但也蕴藏着较多的机会。由于周期股盈利的波动巨大,所以较难估值:可以采取的标准是:市值/max(5年内净利)<5倍,并且财务稳健。这一块要深入研究,还需要去充电,感兴趣的行业:化工、有色、汽车制造(包括零部件)。借用约翰内夫的一句话:除非从低估值中得到补偿,否则绝对不投周期股。其中也说明了周期性的难测,很多个股需要持股几年才能获得较好的回报。 4)大市值个股(市值>500亿),必须满足以下条件:PE<10倍;分红率>4%;过去3年平均扣非净利增长率>10%; 5)防御性企业:食品饮料和医药、医疗等非周期性行业,往往是长牛的出处地,标准静待完善。 6)10倍股的逻辑分析,需要去做一个专题分析。 组合持股数量不能过多,集中持股,重仓股限制在5只以内,单个股最大持股比例不超过20%,保证重仓股的安全边际;

OpenDaylight与Mininet应用实战之复杂网络验证(五)

OpenDaylight与Mininet应用实战之复杂网络验证(五) 1多交换机的测试 Mininet中本身就支持多交换机网络拓扑的模拟创建,可通过Python API自定义拓扑创建满足使用者在仿真过程中的多方位需求。 下面举出具体示例验证多交换机支持: 执行此条命令后,查看ODL的Web界面显示的网络拓扑。界面拓扑显示如下: 对所有的虚拟host之间进行互ping操作,通过pingall命令,验证主机间的连通性,继而可验证支持多交换机的功能。

由pingall显示的结果可看出,主机间能够互相通信,且将数据包的流转发给交换机,并由交换机上报给ODL控制器来下发流表使主机通信。 主机通信过程中可查看交换机的流表信息及本身信息。 由交换机流表信息显示可知,控制器通过策略将流表下发到交换机中,使主机发出的数据包转发到下一目的地址。每个交换机查看信息的端口都不同,从第一个交换机端口号为6634开始,以后每一个交换机依次在之前交换机端口号的基础上加1,如第二个交换机的端口为6635。其他交换机的流表信息及自身设备信息可根据此说明进行查看。 2多控制器的测试 多控制器验证支持测试包括两种情况: ■OpenFlow网络中多个同一类型的控制器; ■OpenFlow网络中多个不同类型的控制器; 2.1多个同一类型的控制器验证 测试OpenFlow网络中多个同一类型的controller,比如OpenDaylight,多个ODL之间通过

OpenFlow1.0协议标准交互。 通过Mininet验证,在Mininet中模拟创建的OvS交换机不能指定连接多个控制器,且在同一个Mininet中创建的多个交换机不能指定不同的控制器。所以在验证交换机被多个同一类型的控制器管控时,不能通过用Mininet来验证,但是可通过真实交换机来验证。 如,在真实交换机中设置连接此文中的ODL控制器及另一个ODL控制器,命令为: 连接两个相同类型的ODL控制器,其中192.168.5.203为上述实验使用的控制器,192.168.5.111为另外安装使用的ODL控制器。通过执行如下命令查看交换机连接的控制器信息。 is_connected:true表示交换机都成功连接上控制器。交换机连接到这两个控制器后,控制器通过设备拓扑管理也可以发现此交换机,同时控制器管控存在主备关系,但控制器都可对交换机进行管控、下发流表等操作。 通过真实OpenFlow交换机连接多个控制器,可以实施,且已经验证,控制器和控制器之间存在主备关系,多控制器都可以对连接的交换机进行管控。 2.2多个不同类型的控制器验证 在OpenFlow网络中多个不同类型的controller,比如同时存在NOX和ODL,它们之间如果遵循OpenFlow协议标准的话,也是能够协作工作的。多个不同类型的控制器管控交换机与2.1小节是同样的道理。 如,在真实交换机中设置连接此文中的ODL控制器及其他另一个不同类型的控制器,如POX,命令为: 连接两个不同控制器,其中192.168.5.203为上述实验使用的控制器,192.168.5.111为另外安装使用的POX控制器。经试验验证,ODL与POX都遵循OF1.0版本的协议标准,所以在复杂网络多控制器情况下,只要控制器遵循相同的标准规范,控制器之间可进行对网络的通信管理等。此处实验结果与2.1节一致。交换机连接这两个控制器后,控制器管控存在主备关系,但控制器都可对交换机进行管控、下发流表等操作。 3总结 本文主要对复杂网络多交换机及多控制器的支持验证。因Mininet现在无法模拟多控制器管控一个交换机的情况,所以本专题还是侧重对多交换机的管控实验。至此,OpenDaylight 与Mininet应用实战专题将结束,有介绍不到位或者有疑问的地方请多多指教,互相交流。谢谢!

菜鸟水平初步设置OpenDaylight-OVSDB-+-Openstack测试环境

菜鸟水平初步设置OpenDaylight OVSDB + Openstack测试环境 Hannibal (SDNAP首发) 刚接触SDN和OpenDaylight两个多月时间,还处于人云亦云照葫芦画瓢的水平,在很多大牛的指导文章帮助下,初步搭建一个很简单的OpenDaylight OVSDB + Openstack调试环境。第一次写技术文章,请多包涵。 一、准备 硬件: 双核Core i7,内存4GB,一个以太网卡的Thinkpad X201t,普通个人用笔记本 Host环境: 64位Ubuntu 13.10,OVS 2.0.90 VM环境: 2个Virtualbox VM,Fedora 19 + OVS 2.0.0 + Devstack 。导入Virtualbox都是缺省配置。两个VM的下载地址: https://https://www.doczj.com/doc/2e6861746.html,:443/v1/96991703573236/imgs/Fedora19--2node-Devstack.tar.bz2 Size: 4983728003 bytes MD5sum: dfd791a989603a88a0fa37950696608c 二、原理 OpenDaylight(ODL)是一个由Linux基金会支持,多个网络厂商参与的开源SDN控制器项目。Openstack是开源的IaaS项目。如何让两个平台整合以便更好的发挥作用是本环境搭建的目的。 现有的解决方案之一,就是利用Openstack Neutron的ML2 Plugin,将网络复杂性丢到ODL。也就是说,Openstack通过ML2 Plugin,与OpenDaylight的NB API进行会话,具体网络部署的实现交由OpenDaylight Controller来实现。

Openstack的Ocata版本与opendaylight 的Carbon版本集成详解

Openstack的Ocata版本与opendaylight 的Carbon版本集成详解 作者:胡章丰,zfhu2001@https://www.doczj.com/doc/2e6861746.html, 前提条件 ===================================================================== 1.已搭建好的可用openstack ocata环境一套 2.已下载的opendaylight carbon-sr1发布版本 3.本文档所述环境地址:控制节点:192.168.137.101,网络节点192.168.137.101,计算节点:192.168.137.101,192.168.137.102,ODL控制器节点:192.168.137.100 4.建议ODL控制器节点与Openstack控制节点采用独立节点安装,否则会有端口冲突,需要修改若干配置文件来避免冲突 ===================================================================== 部署opendaylight控制器 ===================================================================== ODL控制器节点执行: 解压缩软件包 tar xzvf distribution-karaf-0.6.1-Carbon.tar.gz cd distribution-karaf-0.6.1-Carbon/ 开启iptables规则(建议将下列规则写入脚本文件,配置开机自动执行,否则每次重启后需要手动添加这些规则) iptables -I INPUT -p tcp --dport 8181 -j ACCEPT iptables -I INPUT -p tcp --dport 8080 -j ACCEPT iptables -I INPUT -p tcp --dport 6640 -j ACCEPT iptables -I INPUT -p tcp --dport 6653 -j ACCEPT 启动odl控制器 ./bin/karaf 安装odl组件(只能装这几个) feature:install odl-netvirt-openstack odl-dlux-core odl-mdsal-apidocs 验证是否安装成功(打开如果是黑板一块,则说明安装成功) 看看能否打开http://ODL控制器节点ip地址:8181/index.html =====================================================================

OpenDaylight的Helium(氦)版本安装

OpenDaylight的Helium版本安装 OpenDaylight(后面缩写ODL)的Helium(氦)版本已发布,具体详情可参考ODL官网。Helium(氦)版本只发布了一个版本,下载链接地址为https://www.doczj.com/doc/2e6861746.html,/software/downloads/helium。官网中分别共享了版本、安装向导、用户向导、开发者向导手册,可进行下载学习。 git clone https://https://www.doczj.com/doc/2e6861746.html,/gerrit/p/integration.git 1.1.Helium安装 此Helium(氦)版本安装研究是基于Ubuntu12.04的基础上进行安装的,此ODL源文件版本是完全可移植的,但是需要Java7.0以上兼容JVM来运行。如果是用到Oracle的话,JDK版本在 1.7.0_45以上。 解压已获取的安装包文件,并进入解压目录: #unzip distribution-karaf-0.2.0-Helium.zip #cd distribution-karaf-0.2.0-Helium/ #cd bin #./karaf##出现问题? 经验证,此时执行./karaf时,会出现线程异常且No route to host错误,,需要进入上级目录修改文件org.apache.karaf.management.cfg: #cd.. #cd etc #vi org.apache.karaf.management.cfg#打开此文件 将 serviceUrl= service:jmx:rmi://0.0.0.0:${rmiServerPort}/jndi/rmi://0.0.0.0:${rmiRegistryPort}/karaf-${karaf.na me}修改成 serviceUrl= service:jmx:rmi://127.0.0.1:${rmiServerPort}/jndi/rmi://127.0.0.1:${rmiRegistryPort}/karaf-${kar https://www.doczj.com/doc/2e6861746.html,}, 再次进入ODL启动目录: #cd bin #./karaf##执行karaf文件 出现以下正确界面,如图所示:

宏观研究分析框架(上)

试 题 一、单项选择题 1. 根据课程内容,未来在一定程度上是在重复着过去,但并不是在原则上严密地重复着过去,因 此,商业研究预测准确率的边界取决于( )。 A. 设计精巧的数理模型 B. 渊博的知识和经验 C. 未来在多大程度上对过去的重复 D. 个人、企业、政府的理性预期 您的答案:C 题目分数:10 此题得分:10.0 2. 根据课程内容,对于一些自然现象、市场变动和经济现象,人们往往会提出各种合乎逻辑的解 释,为了验证解释的正确性,需要将这种解释转化为一个直观、可观察的结果,而这个转化过程 要同时满足三个约束,下列选项中不属于这三个约束的是( )。 A. 在逻辑上这种解释一定能够推导出相应的结果 B. 相应的结果只有这种解释能够推导出来 C. 相应结果必须可以很方便、直观地进行观察 D. 这种解释推导相应结果的过程必须建立复杂的数理模型 您的答案:D 题目分数:10 此题得分:10.0 二、多项选择题 3. 根据课程内容,宏观研究分析的基本步骤包括( )。 A. 系统性的搜集经验事实,验证理论预测 B. 从理论的内在逻辑出发,提出预测 C. 提出假说,解释现象 D. 观察现象,提出问题 您的答案:A,B,C,D 题目分数:10 此题得分:10.0 三、判断题 4. 无论多么设计精巧的数理模型、多么渊博的知识和经验,商业研究的预测永远做不到百分之百 的确定,其中总会有运气成分发挥作用。( ) 您的答案:正确 题目分数:10 此题得分:10.0 5. 根据课程内容,与商业的宏观经济研究不同,学校的学术研究更多地是站在中国资本市场参与

者的角度出发分析宏观经济现象,重点思考宏观经济层面数据的变化对资本市场的影响及相互的联系。( ) 您的答案:错误 题目分数:10 此题得分:10.0 6. 根据课程内容,1996年?2013年中国和美国的年度PPI数据相关性强。( ) 您的答案:正确 题目分数:10 此题得分:10.0 7. 由于科学技术发展的不可预测性,个人、企业、政府的理性预期和人类认识局限性等原因,未来在原则上并不是过去的简单重复,所以在原则上,未来就是不可预测的。( ) 您的答案:正确 题目分数:10 此题得分:10.0 8. 金融机构研究人员从事商业研究的目的是做预测,而检验一个金融机构研究成果的最主要标准,甚至可以说是唯一的标准就是预测的准确率。( ) 您的答案:正确 题目分数:10 此题得分:10.0 9. 根据课程内容,在中国,通货膨胀率的高低直接决定了货币政策松紧,货币政策的松紧又直接决定了金融市场,特别是股票市场流动性的好坏,因此,可以说货币政策的松紧是金融市场运行的最主要外部条件。( ) 您的答案:正确 题目分数:10 此题得分:10.0 10. 根据课程内容,1981年?1995年中国和美国的年度PPI数据相关性强。( ) 您的答案:错误 题目分数:10 此题得分:10.0 试卷总得分:100.0

OpenDaylight初步学习过程

OpenDaylight初步学习过程 ———————Lithium OpenDaylight搭建环境的要求 1.虚拟机Ubuntu 14.04,内存建议4G及以上,以免在启动ODL时太卡 2.Java7-及以上版本 3.Maven3.1.1及以上版本 注意: 先用java –version查看jdk版本。如果版本低于jdk1.7,则从jdk官网下载,下载地址:https://www.doczj.com/doc/2e6861746.html,/technetwork/java/javase/downloads/java-archive-downloads-javase7-521261.html#jdk-7u79-oth-JPR一定要根据自己系统下载相应的jdk。 安装及配置:https://www.doczj.com/doc/2e6861746.html,/s/blog_93dc666c0101b1bj.html 查看maven版本,maven –v,如果未安装,则从其官网下载3.1.1版本及以上版本。 Tar文件,可以先去官网查下maven最新版本多少。 下载网址:https://www.doczj.com/doc/2e6861746.html,/dyn/closer.cgi/maven/binaries/apache-maven- 3.3.3-bin.tar.gz 安装配置:https://www.doczj.com/doc/2e6861746.html,/caojianhua/archive/2011/04/02/347559.html 建议不要从shell通过apt-get来安装maven,版本不是最新的。 安装pre-build的controller 由于新手初期对于ODL的了解还不多,建议先安装pre-built的distribution熟悉一下opendaylight的基本功能。 1)下载地址如下,下载zip格式 https://https://www.doczj.com/doc/2e6861746.html,/downloads 2)解压文件,进入到bin文件夹,运行./karaf

大佬级的投资分析框架

大佬级的投资分析框架(经典收藏) 今天很高兴有机会能和北大的年轻校友们一起探讨投资的一些理论。我对投资理论研究一直就很有兴趣。95年进入这个行业,从操盘手到基金经理到出来自己做,感触和体会还是很多的。 投资是项很辛苦和很寂寞的工作。投资体系庞大而且复杂,就象一座很大的森林,我们要耗用一生去研究它,会发现有很多值得探索的东西。很多年以来我都这么做,持续思考,但一直没有做系统性的总结。所以今天我也感谢大家给我这个机会,让我全面的反思一下投资的一些重大领域的理论框架。 今天的讲座,我的想法是和大家交流一些东西,而不是我要教导大家什么东西。今天的分析框架分四个部分:宏观经济、股市波动性、公司经营和公司估值。在投资这座森林里,这四个分支是比较重要的,对每一个分支我们都需要花很多心力去研究。以我认为,投资就是要不断建立一些理论框架,并在情况发生改变后有勇气不断打破它而重建。我们看巴菲特、费雪等大师,都有非常清晰的理论体系,操作背后都有一套投资哲学在支持。我们也是在努力学习和思考他们的投资哲学,所谓“有缘人得之”。我希望能够学习他们的精华,并结合中国的实际情况,建立一套自己的体系。 有一本很有名的书叫《黑天鹅》,它的主题是说,我们辛辛苦苦建立了很多投资模型,去管理我们日常的投资。投资风险可以用一条高斯曲线来表达,大部分风险都在某一个区域里面,我们努力去规避最主要的这样一些风险,但是一次极小概率意外的出现,就可以颠覆一切,将辛辛苦苦建立的模型打破,很多财富从而化为乌有。但我想,巴菲特从60 年代做投资以来,经历过无数次大大小小的所谓黑天鹅事件,他不但存活下来了,而且活得很好,他是怎么做到的?2008

深度分享李国飞先生谈投资分析框架及逻辑

深度分享李国飞先生谈投资分析框架及逻辑 文/李国飞(原鹏华基金基金经理) 今天很高兴有机会能和北大的年轻校友们一起探讨投资的一些理论 我对投资理论研究一直就很有兴趣95年进入这个行业,从操盘手到基金经理到出来自己做,感触和体会还是很多的 投资是项很辛苦和很寂寞的工作投资体系庞大而且复杂,就像一座很大的森林,我们要耗用一生去研究它,会发现有很多值得探索的东西很多年以来我都这么做,持续思考,但一直没有做系统性的总结所以今天我也感谢大家给我这个机会,让我全面的反思一下投资的一些重大领域的理论框架 今天的讲座,我的想法是和大家交流一些东西,而不是我要教导大家什么东西今天的分析框架分四个部分:宏观经济股市波动性公司经营和公司估值在投资这座森林里,这四个分支是比较重要的,对每一个分支我们都需要花很多心力去研究以我认为,投资就是要不断建立一些理论框架,并在情况发生改变后有勇气不断打破它而重建我们看巴菲特费雪等大师,都有非常清晰的理论体系,操作背后都有一套投资哲学在支持我们也是在努力学**和 思考他们的投资哲学,所谓有缘人得之我希望能够学**他们的精华,并结合中国的实际情况,建立一套自己的体系 有一本很有名的书叫黑天鹅,它的主题是说,我们辛辛苦苦建立了很多投资模型,去管理我们日常的投资投资风险可以用一条高斯曲线来表达,大部分风险都在某一个区域里面,我们努力去规避最主要的这样一些风险,但是一次极小概率意外的出现,就可以颠覆一切,将辛辛苦苦建立的模型打破,很多财富从而化为乌有但我想,巴菲特从60年代做投资以来,经历过无数次**小小的所谓黑天鹅事件,他不但存活下来了,而且活得很好,他是怎 么做到的?2008年黑天鹅这本书的出版,让投资界很震惊,都在反思黑天鹅事件是不可 避免的,关健是我们如何去应对,让我们的资产不断增值,活得更好这是促使我去思考的另一个重要原因 我谈谈研究的基本思路首先我认为,在市场的每个具体阶段,我所研究的这四个分支都有一些非常重要的核心矛盾,有些非常敏感的因素如果我们不能挖掘出在这个阶段里最核心的矛盾是什么,那就只能说明一个问题:我们还不够努力,我们还没有挖掘出本质和规律所在,所以要不断去探求过一段时间新的情况出来了,最核心的矛盾改变了,我们又要重新挖掘我们始终要努力抓住最核心的矛盾 其次,这四个理论框架里的每一点,我都希望与巴菲特的投资思想作一个印证巴菲特对这些问题都有论述,零散地分布在巴菲特的年报和各种访谈里面巴菲特在投资界的修炼已经

opendaylight Md-sal

Md-sal中 How To Look Up Data In MD-SAL –Helium Version Posted by Kanika Previously I wrote how to look up data in MD-SAL data store but that holds good only for OpenDaylight’s Hydrogen release. In OpenDaylight’s Helium release, data broker API’s have been changed. Here is how you can look up data in MD-SAL data store if you are using OpenDaylight’s Helium v ersion. Note that you also have to switch your OSGI bundle to be config subsytem aware before you can start using new DataBroker service. import https://www.doczj.com/doc/2e6861746.html,mon.base.Optional; import org.opendaylight.controller.md.sal.binding.api.DataBroker; import https://www.doczj.com/doc/2e6861746.html,mon.api.data.LogicalDatastoreType; import org.opendaylight.controller.md.sal.binding.api.ReadOnlyTransaction ; ... ... //Look up all the nodes from MD-SAL operational data store InstanceIdentifier nodesIdentifier = InstanceIdentifier.builder().node(Nodes.class).toInstance(); Optional nodes= null; try { nodes= readTx.read(LogicalDatastoreType.OPERATIONAL, nodesIdentifier).get(); List nodeList = nodes.getNode(); } catch (InterruptedException | ExecutionException e) { e.printStackTrace(); } How To Insert Data In MD-SAL Data Store – Helium Version Posted by Kanika Previously I wrote how to insert data in MD-SAL data store but that holds good only for OpenDaylight’s Hydrogen release. In OpenDaylight’s Helium release, data broker API’s have been changed. Here is how you can insert data in MD-SAL data store if you are using OpenDaylight’s Helium version. Note that you als o have to switch your

《宏观经济分析及政策》课程考试复习指南

《宏观经济分析与政策》课程考试复习指南 一、考试题型:1.名词解释;2.简单题;3.论述题。 二、考试内容 Part 1:宏观经济分析的基本范式与我国宏观经济发展的基本脉络 (一)宏观经济分析的基本范式(名词解释和运用宏观分析框架图进行分析的简答题) 1.衡量宏观经济状况的三个基本指标:价格、增长、就业 2.影响三大指标的主要因素是:总需求(消费需求、投资需求、出口)、总供给(消费品供给、投资品供给、进口)、总需求与总供给的关系(总需求>总供给:总需求膨胀→价格暴涨、通货膨胀、经济过热、经济泡沫、失业率太低;总需求<总供给:总需求不足→价格下跌、通货紧缩、经济过冷、资产缩水、失业率过高;总需求=总供给:(±5%)总量平衡→国民经济运行稳定)。 3. 影响总需求和总供给的宏观因素 备注: ①M0-现金,M1-现金+活期,M2-现金+活期+定期(货币供应量); ②财政收入(包括税收及非税收收入等)→减少→需求增加;反之,相反。 财政支出(包括财政预算及国有资产经营预算)→增加→需求增加;反之,相反。 ③双顺差→外贸流入增加→现有外汇管理体系(外汇只能由央行用人民币购买)→外汇占款比例提高→货币供应量上升→总需求膨胀 4.总结 分析宏观经济的切入点是对宏观经济的三大指标进行分析,影响三大指标的主要因素是社会总需求和社会总供给的供求关系变化,为了保证三大指标处于合理的取值范围而促进国民经济健康平稳发展,就需要采取措施不断调整供求关系;影响供求关系的宏观因素有货币因素、财政因素、国际因素,因此要调整这三大宏观因素,就要建立以央行调整货币政策、财政部调整财政政策、商务部调整国际政策的宏观经济基本框架。

相关主题
文本预览
相关文档 最新文档