当前位置:文档之家› Domain-Specific IR for German, English and Russian Languages

Domain-Specific IR for German, English and Russian Languages

Domain-Specific IR for German, English and Russian Languages
Domain-Specific IR for German, English and Russian Languages

Domain-Specific IR for German, English and Russian Languages

Claire Fautsch, Ljiljana Dolamic, Samir Abdou, Jacques Savoy

Computer Science Department

University of Neuchatel, Switzerland

{Claire.Fautsch, Ljiljana.Dolamic, Samir.Abdou, Jacques.Savoy}@unine.ch

Abstract

In participating in this CLEF evaluation campaign, our first objective is to propose and evaluate

various indexing and search strategies for the Russian language, in order to obtain better retrieval

effectiveness than that provided by the language-independent approach (n-gram). Our second

objective is to more effectively measure the relative merit of various search engines when used for

the German and to a lesser extent the English language. To do so we evaluate the GIRT-4

test-collection using the Okapi, various IR models derived from the Divergence from Randomness

(DFR) paradigm, the statistical language model (LM) together with the classical tf.idf

vector-processing scheme. We also evaluated different pseudo-relevance feedback approaches.

For the Russian language, we find that word-based indexing with our light stemming procedure

results in better retrieval effectiveness than does 4-gram indexing strategy (relative difference

around 30%). Using the GIRT corpora (available in German and English), we examine certain

variations in retrieval effectiveness that result from applying the specialized thesaurus to

automatically enlarge topic descriptions. In this case, the performance variations were relatively

small and usually non significant.

Categories and Subject Descriptors

H.3.1 [Content Analysis and Indexing]: Indexing methods, Linguistic processing. I.2.7 [Natural Language Processing]: Language models. H.3.3 [Information Storage and Retrieval]: Retrieval models. H.3.4 [Systems and Software]: Performance evaluation.

General Terms

Experimentation, Performance, Measurement, Algorithms.

Additional Keywords and Phrases

Natural Language Processing with European Languages, Manual Indexing, Digital Libraries, German Language, Russian Language, Thesaurus.

1 Introduction

In our domain-specific retrieval task we access the GIRT (German Indexing and Retrieval Test database) corpus, composed of bibliographic records. These are mainly extracted from two social science sources: SOLIS (social science literature) and FORIS1 (current research in social science fields), covering Europe's German speaking countries (Germany, Austria, and Switzerland). This collection has grown from 13,000 documents in 1996 to more than 150,000 in 2005, and we are making a continuous effort to enhance the number of documents available, see Kluck (2004) for a more complete description of this corpus.

The fact that scientific documents may contain manually assigned keywords is of particular interest to us in our work. They are usually extracted from a controlled vocabulary by librarians who are knowledgeable of the domain to which the indexed articles belong. These descriptors should be helpful in improving document surrogates and thus the extraction of more pertinent information, and at the same time discarding irrelevant abstracts. Access to the underlying thesaurus would also improve the retrieval performance.

1See the Web sites https://www.doczj.com/doc/556327628.html,/Information/SOLIS/ and https://www.doczj.com/doc/556327628.html,/Information/FORIS/

The rest of this paper is organized as follows: Section 2 describes the main characteristics of the GIRT-4 and ISISS test-collections. Section 3 outlines the main aspects of our stopword lists and light stemming procedures. Section 4 analyses the principal features of various indexing and search strategies, and evaluates their use with the available corpora. Section 5 presents our official runs and results.

GIRT-DE19908362

Auswirkungen der Informationstechnologien auf die zukünftigen Besch?ftigungs- und Ausbildungsperspektiven in der EG

Riedel, Monika

Wagner, Michael

1990

DE

EG

Informationstechnologie

Besch?ftigungsentwicklung

Berufsbildung

Qualifikationsanforderungen

beschreibend

Aktenanalyse

Interpretation

Arbeitsmarkt- und Berufsforschung

Arbeitsmarktforschung

Berufsforschung, Berufssoziologie

Bildungswesen quart?rer Bereich

Ver?nderungen der Qualifikationsanforderungen an Besch?ftigte im IT-Sektor und Zukunftsprojektionen. …

Figure 1: Record example written in German

GIRT-EN19904041

Impact of Information Technologies on Future Employment and Training Perspectives in the EC Riedel, Monika

Wagner, Michael

1990

EN

EC

information technology

employment trend

vocational education

qualification requirements

document analysis

Employment Research

Labor Market Research

Occupational Research, Occupational Sociology

Vocational Training, Adult Education …

Figure 2: English translation of the record shown in Figure 1

2 Overview of Test-Collections

In the domain-specific retrieval task (called GIRT), the two available corpora are composed of bibliographic records extracted from various sources in the social sciences domain. Typical records (see Figure 1 for a German example) in this corpus consist of a title (tag ), author name (tag ), document language (tag ), publication date (tag ) and abstract (tag ). Manually assigned descriptors and classifiers are provided for all documents. An inspection of this German

corpus reveals that all bibliographic notices have a title, and that 96.4% of them have an abstract. In addition to this information provided by the author, a typical record contains on average 10.15 descriptors

(“”), 2.02 classification terms (“”), and 2.42 methodological terms (““ or ““). The manually assigned descriptors are extracted from the controlled list which is the “Thesaurus for the Social Sciences” (or GIRT Thesaurus). Finally, associated with each record is a unique identifier (“”). Kluck (2004) provides a more complete description of this corpus.

The above-mentioned German collection was translated into British English, mainly by professional translators who are native English speakers. Included in all English records is a translated title (listed under “” in Figure 2), manually assigned descriptors (“”), classification terms (“”) and methodological terms (“”). Abstracts however were not always translated (in fact they are available for only around 15% of the English records).

In addition to this bilingual corpus, we also have access to the GIRT thesaurus. Figure 3 shows some examples of four typical entries in this thesaurus. Each main entry includes the tag followed by the descriptor written in the German language. Its corresponding uppercase form without diacritics or “?” appears under the tag . The British English translation follows the label . The hierarchical relationships between the different descriptors are shown under the labels (a term having a broader semantic coverage) and (a more specific term). The relationship is used to provide additional pertinent descriptors (similar to the relationship “see also …” often found in many controlled vocabularies). The tag is used to redirected readers to another entry (usually a synonym of an existing entry or to indicate that an acronym exists). The tag

is sometimes used to indicate a possible decompounded or simplified term variant, or more generally a similar term. Usually however, the is used like to refer from a non-descriptor to a descriptor but having usually more than one descriptor that should be used in combination.

In the GIRT thesaurus are found 10,623 entries (all with both the tag and ) together with 9,705 English translations. Also found are 2,947 relationships and 2,853

links. The synonym relationship between terms can be expressed through the

(2,153 links), (1,528) or (3,263).

Figure 3: Example on four different entries in the GIRT thesaurus Table 1 below lists a few statistics from these collections, showing that the German corpus has the largest size (326 MB), the English ranks second and the Russian third, both in size (12 MB) and in number of documents (145,802). The German corpus has the larger mean size (89.71 indexing terms/article), compared to the English collection (54.86), while for the Russian corpus the mean value is smaller (38.4). For the English corpus, we do not include the CSA Sociological Abstracts (20,000 documents, 38.5 MB) in our evaluation. The fact that the relevance assessments contain 1,032 items extracted from this sub-collection implies that our retrieval effectiveness measures for the English corpus are lower than expected.

During the indexing process, we retained all pertinent sections in order to build document representatives. Additional information such as author name, publication date and the language in which the bibliographic notice was written are of less importance, particularly from an IR perspective, and in our experiments they will be ignored.

As shown in Appendix 2, the available topics cover various subjects (e.g., Topic #176: “Sibling relations,” Topic #178: “German-French relations after 1945,” Topic #196: “Tourism industry in Germany,” or Topic #199: “European climate policy”), and some of them may cover a relative large domain (e.g. Topic #187: “Migration pressure”).

Table 1: CLEF GIRT-4 and ISISS test collection statistics

3 Stopword Lists and Stemming Procedures

During this evaluation campaign, we used the same stopword lists and stemmers that we selected for our previous English and German language CLEF participation (Savoy, 2004a). Thus for English it was the SMART stemmer and stopword list (containing 571 items), while for the German we applied our light stemmer (available at http://www.unine.ch/info/clef/) and stopword list (603 words). For all our German experiments we applied our decompounding algorithm (Savoy, 2004b).

For the Russian language, we designed and implemented a new light stemmer that removes only inflectional suffixes attached to nouns or adjectives. This stemmer applies 53 rules to remove the final suffix representing gender (masculine, feminine, and neutral), number (singular, plural) and the six Russian grammatical cases (nominative, accusative, genitive, dative, instrumental, and locative). The stemmer also applied three normalization rules in order to correct certain variations that occur when a particular suffix is attached to a noun or adjective. See Appendix 3 for a list all this new stemmer's rules.

4 IR Models and Evaluation

4.1. Indexing and Search Strategies

In order to obtain a broader view of the relative merit of various retrieval models, we may first adopt the classical tf idf indexing scheme. In this case, the weight attached to each indexing term in a document surrogate

(or in a query) is composed by the term occurrence frequency (denoted tf ij for indexing term t j in document D i) and

the inverse document frequency (denoted idf j).

In addition to this vector-processing model, we may also consider probabilistic models such as the Okapi

model (or BM25) (Robertson et al., 2000). As a second probabilistic approach, we may implement four variants

of the DFR (Divergence from Randomness) family suggested by Amati & van Rijsbergen (2002). In this

framework, the indexing weight w ij attached to term t j in document D i combines two information measures as

follows:

w ij = Inf1ij · Inf2ij = –log2[Prob1 ij(tf)] · (1 – Prob2ij(tf))

The first model called GL2 was based on the following equations:

Prob2ij = tfn ij / (tfn ij + 1) with tfn ij = tf ij · log2[1 + ((c · mean dl) / l i)] (1)

Prob1ij = [1 / (1+λj)] · [λj / (1+λj)]tfn ij with λj = tc j / n (2) where tc j represents the number of occurrences of term t j in the collection, df j the number of documents in which

the term t j appears, and n the number of documents in the corpus. In our experiments, we fixed the constants

values according to the values given in the Appendix 1.

For the second model called PL2, Prob2ij was obtained from Equation 1, and Prob1ij was modified as:

Prob1ij = (e-λj · λtfij) / tf ij! (3)

For the third model called I(n)L2, we still used Equation 1 to compute Prob2ij but the implementation of Inf1ij

was modified as:

Inf1ij = tfn ij· log2[(n+1) / (df j+0.5)] (4)

For the fourth model called PB2, the implementation of Prob1ij was obtained by Equation 3, and for evaluating

Prob2ij we used:

Prob2ij = 1- [(tc j+1) / (df j · (tf ij+1))] (5)

For the fifth model called I(n)B2, the implementation of Inf1ij was obtained from Equation 4 while Prob2ij was

provided by Equation 5.

Finally, we also considered an approach based on a statistical language model (LM) (Hiemstra 2000; 2002),

known as a non-parametric probabilistic model (both Okapi and DFR are viewed as parametric models). Thus

probability estimates would not be based on any known distribution (as in Equations 2, or 3), but rather be

estimated directly based on occurrence frequencies of document D or corpus C. Within this language model (LM)

paradigm, various implementations and smoothing methods might be considered, and in this study we adopted a

model proposed by Hiemstra (2002) as described in Equation 6, which combines an estimate based on document

(P[t j | D i]) and on corpus (P[t j | C]).

P[D i | Q] = P[D i] .∏t

j∈Q [λj. P[t j | D i] + (1-λj) . P[t j | C]]

with P[t j | D i] = tf ij/l i and P[t j | C] = df j/lc with lc = ∑k df k(6) where λj is a smoothing factor (constant for all indexing terms t j, and usually fixed at 0.35) and lc an estimate of the size of the corpus C.

4.2. Overall Evaluation

To measure the retrieval performance, we adopted the mean average precision (MAP) (computed on the basis of 1,000 retrieved items per request by the new TREC-EVAL program). In the following tables, the best performance under the given conditions (with the same indexing scheme and the same collection) is listed in bold type. For the English corpus, our evaluation measures are lower than expected due to the fact that our IR system does not take account for the CSA collection.

Table 2 shows the MAP obtained by the seven probabilistic models and the classical tf idf vector-space model using the German or English collection and three different query formulations (title-only or T, TD, and TDN). In the bottom lines we reported the MAP average over the best 7 IR models (the average is computed without the tf idf scheme), and the percentage of change over the medium (TD) query formulation. The DFR I(n)B2 model for the German language or also the Okapi model when searching into the English corpus tends to produce the best retrieval performance.

Table 3 reports the evaluations done for the Russian language (word-based indexing & n-gram indexing (McNamee & Mayfield, 2004)). The last three lines in this table indicate the MAP average computed for the 4 IR models, the percentage of change compared to the medium (TD) query formulation, and the percentage of change when comparing word-based and 4-gram indexing approaches.

From this table, we can see that the best performing model when using word-based indexing strategy tends to be the DFR I(n)B2 or the DFR GL2 model. With the 4-gram indexing approach, we may also include the LM model in the set of the best performing schemes. The improvement over the medium query formulation (TD) is greater than 25%, a clear and important enhancement. As shown in the last line, when comparing word-based and 4-gram indexing system, we can see that the relative difference is rather large (around 30%) and favors the word-based approach.

Table 2: Mean average precision of various single searching strategies (monolingual, GIRT-4 corpus) Using our evaluation approach, evaluation differences occur when comparing with values computed according to the official measure (the latter always takes 25 queries into account).

Table 3: Mean average precision of various single search strategies (monolingual, ISISS corpus)

4.3. Blind-Query Expansion

Table 4: Mean average precision using blind-query expansion (German GIRT-4 collection)

Table 5: Mean average precision using blind-query expansion (English GIRT-4 collection) In an effort to improve search performance we examined pseudo-relevance feedback using Rocchio’s formulation (denoted“Roc”) (Buckley et al., 1996) with α = 0.75, β = 0.75, whereby the system was allowed to add m terms extracted from the k best ranked documents from the original query. For the German corpus (Table 4), enhancement increased from +9.8% (Okapi, 0.2616 vs. 0.2872) to +21.8% (LM model, 0.2526 vs. 0.3076). For the English collection (Table 5), Rocchio’s blind query expansion improves the MAP from +3.6% (Okapi, 0.2549 vs. 0.2640) to +18.2% (LM model, 0.2603 vs. 0.3077). For the Russian language (Table 6), blind query expansion may hurt the MAP (e.g., -21.3% with the DFR InB2 model, 0.1775 vs. 0.1397) or improve the retrieval effectiveness (e.g., +8.9% with the LM model, 0.1511 vs. 0.1645). As another pseudo-relevance feedback technique we applied our idf-based approach (denoted

“idf” in Table 8) (Abdou & Savoy, 2007).

4.4. Query Expansion Using a Specialized Thesaurus

The GIRT collection has certain interesting aspects from an IR perspective. Each record has manually assigned descriptors (see examples given in Figures 1 and 2) in order to provide more information on the semantic contents of each bibliographic record. Additionally, descriptors from the specialized thesaurus are accessed (see entry examples depicted in Figure 3).

Table 7: Mean average precision of various IR models with and without using the specialized thesaurus

(monolingual, GIRT-4 corpus)

In an effort to improve the mean average precision, we used the GIRT thesaurus to automatically enlarge the query. To achieve this, we considered each entry in the thesaurus as a document and then indexed it. We then took each query in turn and used it to retrieve the thesaurus entries. Since the number of retrieved thesaurus entries was relatively small, we simply added all these thesaurus entries to the query, forming a new and enlarged one. Although certain terms occurring in the original query were repeated, in other cases this procedure added related terms. If for example the topic included the country name “Deutschland”, our thesaurus-based query expansion

procedure might add the related term “BDR” and “Bundesrepublik”. Thus, these two terms would usually be helpful to retrieve more pertinent articles.

Using the TD query formulation, MAP differences were relatively small (around -3.1%, in average). We believe that one possible explanation for this relatively small difference was that a query might be expanded with frequently used terms that would not be really effective in discriminating between the relevant and irrelevant items.

5 Official Results

Table 8: Description and mean average precision (MAP) of our official GIRT runs Table 8 describes our 12 official runs in the monolingual GIRT task. In this case each run was built using a data fusion operator “Z-Score” (see (Savoy & Berger, 2006)). For all runs, we automatically expanded the queries using a blind relevance feedback method, Rocchio (denoted “Roc”) or our IDFQE approach (denoted “idf”). In order to obtain more relevant documents in the pool, we also submitted three runs using the TDN queries (UniNEde4, UniNEen4, and UniNEru4). For the English collection the runs retrieved only documents from the

GIRT-4 collection and thus we have ignored the CSA corpus. The MAP values achieved for this language are therefore clearly below the expected performance. Finally for the Russian collection, Table 8 depicts the MAP achieved when considering 22 queries and in parenthesis, the official MAP computed with 25 queries.

6 Conclusion

For our participation in this domain-specific evaluation campaign, we propose a new light stemmer for the Russian language. The resulting MAP (see Table 3) shows that for this Slavic language our approach may produce better MAP than a 4-gram approach (relative difference around 30%). For the German corpus, we try to exploit the specialized thesaurus in order to improve the resulting MAP. The retrieval effectiveness difference is rather small and we still need to analyze the reasons for obtaining so little difference (see Table 7). We believe that a more specific query enrichment procedure is needed, one able to take the various different term-term relationships into account, along with the occurrence frequencies of the potential new search terms.

When comparing the various IR models (see Table 2), we found that the I(n)B2 model derived from the Divergence from Randomness (DFR) paradigm tends usually to result in the best performance. When analyzing blind query expansion approaches (see Tables 4 to 6), we find that this type of automatic query expansion can enhance MAP but there is clearly larger improvement when using the LM model. Finally for the Russian corpus, this search strategy produces less improvement than for the English or German collections.

Acknowledgments

The authors would like to also thank the GIRT - CLEF-2007 task organizers for their efforts in developing domain-specific test-collections. This research was supported in part by the Swiss National Science Foundation under Grant #200021-113273.

References

Abdou, S., & Savoy J., (2007). Searching in Medline: Stemming, query expansion, and manual indexing evaluation. Information Processing & Management, to appear.

Amati, G. & van Rijsbergen, C.J. (2002). Probabilistic models of information retrieval based on measuring the divergence from randomness. ACM Transactions on Information Systems, 20(4), 357-389.

Buckley, C., Singhal, A., Mitra, M. & Salton, G. (1996). New retrieval approaches using SMART. In Proceedings of TREC-4, Gaithersburg: NIST Publication #500-236, 25-48.

Hiemstra, D. (2000). Using language models for information retrieval. CTIT Ph.D. Thesis.

Hiemstra, D. (2002). Term-specific smoothing for the language modeling approach to information retrieval. In Proceedings of the ACM-SIGIR, The ACM Press, Tempere, 35-41.

Kluck, M. (2004). The GIRT data in the evaluation of CLIR systems - from 1997 until 2003. In C. Peters, J.

Gonzalo, M. Braschler, M. Kluck (Eds.), Comparative Evaluation of Multilingual Information Access Systems. LNCS #3237. Springer-Verlag, Berlin, 2004, 376-390.

McNamee, P. & Mayfield, J. (2004). Character n-gram tokenization for European language text retrieval. IR Journal, 7(1-2), 73-97.

Robertson, S.E., Walker, S. & Beaulieu, M. (2000). Experimentation as a way of life: Okapi at TREC.

Information Processing & Management, 36(1), 95-108.

Savoy, J. (2004a). Combining multiple strategies for effective monolingual and cross-lingual retrieval. IR Journal, 7(1-2), 121-148.

Savoy, J. (2004b). Report on CLEF-2003 monolingual tracks: Fusion of probabilistic models for effective monolingual retrieval. In C. Peters, J. Gonzalo, M. Braschler, M. Kluck (Eds.), Comparative Evaluation of Multilingual Information Access Systems. LNCS #3237. Springer-Verlag, Berlin, 2004, 322-336. Savoy, J. & Berger, P.-Y. (2006). Monolingual, Bilingual and GIRT Information Retrieval at CLEF 2005. In C.

Peters, P. Clough, J. Gonzalo, G.J.F. Jones, M. Kluck & B. Magnini (Eds.), Multilingual Information Access for Text, Speech and Images. Springer-Verlag, Berlin, 2006, to appear.

Appendix 1: Parameter Settings

Table A.1: Parameter settings for the various test-collections Appendix 2: Topic Titles

Table A.2: Query titles for CLEF-2007 GIRT test-collections

Appendix 3: The Russian Stemmer

RussianStemmer (word) {

RemoveCase (word);

Normalize (word);

return;

}

Normalize(word) {

if (word ends with “-ь”) then remove “-ь” return;

if (word ends with “-и”) then remove “-и”return;

if (word ends with “-нн”) then replace by “-н” return;

return;

RemoveCase (word) {

if (word ends with “-иями”) then remove “-иями” return;

if (word ends with “-оями”) then remove “-оями” return;

if (word ends with “-оиев”) then remove “-оиев” return;

if (word ends with “-иях”) then remove “-иях” return;

if (word ends with “-иям”) then remove “-иям” return;

if (word ends with “-ями”) then remove “-ями” return;

if (word ends with “-оям”) then remove “-оям” return;

if (word ends with “-оях”) then remove “-оях” return;

if (word ends with “-ами”) then remove “-ами” return;

if (word ends with “-его”) then remove “-его” return;

if (word ends with “-ему”) then remove “-ему” return;

if (word ends with “-ери”) then remove “-ери” return;

if (word ends with “-ими”) then remove “-ими” return;

if (word ends with “-иев”) then remove “-иев” return;

if (word ends with “-ого”) then remove “-ого” return;

if (word ends with “-ому”) then remove “-ому” return;

if (word ends with “-ыми”) then remove “-ыми” return;

if (word ends with “-оев”) then remove “-оев” return;

if (word ends with “-яя”) then remove “-яя” return;

if (word ends with “-ях”) then remove “-ях” return;

if (word ends with “-юю”) then remove “-юю” return;

if (word ends with “-ая”) then remove “-ая” return;

if (word ends with “-ах”) then remove “-ах” return;

if (word ends with “-ею”) then remove “-ею” return;

if (word ends with “-их”) then remove “-их” return;

if (word ends with “-ия”) then remove “-ия” return;

if (word ends with “-ию”) then remove “-ию” return;

if (word ends with “-ие”) then remove “-ие” return;

if (word ends with “-ий”) then remove “-ий” return;

if (word ends with “-им”) then remove “-им” return;

if (word ends with “-ое”) then remove “-ое” return;

if (word ends with “-ом”) then remove “-ом” return;

if (word ends with “-ой”) then remove “-ой” return;

if (word ends with “-ов”) then remove “-ов” return;

if (word ends with “-ые”) then remove “-ые” return;

if (word ends with “-ый”) then remove “-ый” return;

if (word ends with “-ым”) then remove “-ым” return;

if (word ends with “-ми”) then remove “-ми” return;

if (word ends with “-ою”) then remove “-ою” return;

if (word ends with “-ую”) then remove “-ую” return;

if (word ends with “-ям”) then remove “-ям” return;

if (word ends with “-ых”) then remove “-ых” return;

if (word ends with “-ея”) then remove “-ея” return;

if (word ends with “-ам”) then remove “-ам” return;

if (word ends with “-ее”) then remove “-ее” return;

if (word ends with “-ей”) then remove “-ей” return;

if (word ends with “-ем”) then remove “-ем” return;

if (word ends with “-ев”) then remove “-ев” return;

if (word ends with “-я”) then remove “-я” return;

if (word ends with “-ю”) then remove “-ю” return;

if(word ends with “-й”) then remove “-й” return;

if (word ends with “-ы”) then remove “-ы” return;

if (word ends with “-[аеиоу]”) then remove “-[аеиоу]” return;

}

Table A.3: Our light stemmer for the Russian language

学生选课操作流程

学生选课操作流程 1、请登录新版综合教务系统,用户名为:学号;初始密码为:去掉X的身份证号后六位。登录后界面如下: 图一 2、点击“图一”中的选课中心,进入选课中心: 图二 点击“进入选课”进入选课界面

3、进入选课界面,如图所示: 图三 共有六个标签: (1)“选课学分情况”标签显示的内容为本学期选课学分最高限制要求及已选情况。 (2)“本学期计划选课”标签下显示的课程为:尚未预置的,与培养方案课程号相同的课程。请同学们根据自身情况合理选择必修及限选课程。 如图所示: 图四 目前,系统已经预置必修课,请大家点击该页面下方“选课结果查看及退选”标签,查看必修课是否预置成功。如图所示:

图五 如果预置不成功,请点击图四中的“选课”按钮进行选课,如果预置成功,想退选该门课程,请点击图五中相应课程最右侧的“退选”按钮退课。限选课程选课、退课及查看方式,请参照必修课的方法。(3)“本学期计划选课”“专业内跨年级选课”“跨专业选课”三个标签,可查询本学期计划内或本学期计划外课程。可根据课程名或者任课教师及上课时间进行查询。 如图所示: 图六 如果在“本学期计划选课”“专业内跨年级选课”这两个标签内查询不到的课程,可以在“跨专业选课”标签进行查询。 查询到具体课程,选课以及退选方法同“本学期计划选课”的必修选课。

(5)“公选课选课”标签显示的内容为本学期开设的所有全校通选课课程安排。(大一秋季学期,无全校通选课要求,请新生勿在此标签下选课。) 4、在选课中心页面下方,如图所示,共有三个标签: 图八 (1)“选课课表”标签,显示的内容为:已选课程的时间安排、地点安排在“选课结果查看及退选”标签中查询 注意:已选择的不安排上课时间上课地点的课程,不出现在该标签下,但是在“选课结果查看及退选”标签中显示这类课程。 (2)“选课结果查看及退选”显示的内容为:所有已选择的课程。如要退选某门课程,在该标签下进行。 对于所有已选择的课程请注意“选课状态”一栏,如图所示: 图九 标注“选中”的课程为已选中课程;标注“待抽签”的课程要待抽签完成以后,确定是否选中该门课程。 (3)“退课日志查看”显示的内容为退课操作日志,包括每次退课的时间以及具体操作人等内容。 5、选课完成后,请单击选课界面右上角“安全退出选课”按钮,退

学生综合管理系统使用说明

学生综合管理系统使用说明 一、学生用户 1.系统登录 用户在IE栏输入网址:https://www.doczj.com/doc/556327628.html,/SUSF登录到学生综合管理系统首页,如下图所示: 图1-1 在系统首页中输入用户名、密码和验证码,单击“登录”命令按钮进入学生综合管理系统主页面。用户名为学生学号,初始密码为1111。 2.修改密码 学生登录系统后在系统维护管理——个人信息中可以自己修改密码,如下图所示:

图1-2 学生进入系统以后,先修改密码,然后将自己的信息填写完整。页面左边菜单工具栏里面点击学生基本信息——学籍管理,如图1-3显示灰色的地方学生没有办法修改,如果需要修改可以向辅导员申请,由辅导员进行修改,蓝色标注的 地方学生可以自行修改。 然后再点击顶端的家庭基本信息,如图1-4学生如实填写信息。这里有一个

个人银行名称和银行卡号,刚开始可以不填,但是如果该学生评选上了国家助学金,这里应该根据学生资助中心要求选择银行,填写完成以后点击保存。 图1-4 3.奖助学金申请 学生登录系统后看到的页面如图1-5:在资助项目中,学生可以看到资助名称、资助时间、申请状态、申请开始时间和申请结束时间等信息。学生查看信息后可以根据自己的实际情况来填写申请理由进行申请。学生点击不同的资助时间,即可进行相应的申请。

图1-5 学生点击申请某项奖助学金以后,进入如图1-6所示界面,认真仔细填写。申请理由字数必须在100-250之间,填写完成以后,先点击保存。系统会保存学生的申请信息,但不会提交至辅导员,学生还可以修改申请信息。如果学生对自己的信息进行确认后,点击提交,申请材料则上交至辅导员,此时学生不可修改 自己的申请信息。首页待办工作的状态栏显示辅导员审核中。 图1-6

学生食堂操作流程图

学生食堂操作流程图 (根据季节变换和学生及家长的反映情况编制食谱,并进行资金预算) ↓ (索票索证,如实登记) (一观、二闻、三称,如实登记,分类、分架、隔墙隔地存放) (一选、二择、三洗、四浸、五切、六烹调) (营养办值班人员试餐后留样,专人管理,双人双锁,数量100g,时间48小时) (适时调整数量,保证分菜均匀) (按秩序排队以班级为单位在餐厅领餐到教室座位就餐,烹调后至学生就餐不超过2小时) (一洗、二清、三消毒、四保洁,专人管理) (每餐一清理,每天一清洗,每次一消毒) (一天一公示,一周一核算) 食堂剩饭剩菜处理协议书 甲方:中学 乙方:(住址:: 联系电话:)

甲方为方便食堂卫生管理,对学校食堂剩饭剩菜进行集中处理,2013年8月,经过志愿报名,对比服务程序后,甲方确定乙方为学校食堂剩饭剩菜处理人,经过双方协商达成如下协议: 一、凡甲方食堂供餐期间,每天早中晚三餐,剩饭剩菜乙方都要按时派人到现场负责管理清理和外运,并搞好器具及附近地面清洁卫生,不能污染经过路面,不能用学校食堂的器具外运剩饭剩菜,运送车在学校管理辖区内行驶时必须保持低速、慢速。 二、剩饭剩菜回收使用,只能牲畜养殖使用,出现牲畜病变与甲方无关,甲方无需负任何责任,同时乙方必须向甲方保证所回收的剩饭剩菜中废油、残渣、剩菜等不能出卖给不法食品加工单位,一经查实,乙方自行承担责任。 三、回收剩饭剩菜时,发现剩饭剩菜桶内有筷子、盘碗时主动整理出交付甲方。 四、甲方不单独收取乙方剩饭剩菜处理费,附加条件为:义务及免费承担器具及附近地面清洁卫生,保持清洁干净。 五、本协议自签订之日起生效,对不按协议规定执行的,甲方按有关规定处理。凡因乙方造成的意外情况,甲方不承担责任。解释权在甲方。 六、协议有效期为2013年9月1日至2014年1月31日。 本协议一式两份,双方各持一份。 甲方(盖章)法人(签字): 乙方(签字或盖章): 2013年8月31日

学生成绩管理系统+流程图

学生成绩管理系统的可行性分析报告 一、系统简述 学生成绩管理系统是以计算机为工具,通过对教务管理所需的信息管理,把管理人员从繁琐的数据计算处理中解脱出来,为老师节省很多时间跟精力,提高老师的工作效率,通过学生成绩管理系统给学校管理者减轻工作的负担,将工作的失误几率降到最低,为广大老师同学带来便利,使大家能够更好的投入到学习中。同时这个系统还可以减少人力与管理费用,提供信息准确度更高,更简便的学生信息管理系统。 该系统的功能能够实现学生成绩信息的管理和查询;同时还可以对信息进行修改、删除和添加,另外该系统应该能做到可以对学生成绩信息以及成绩信息查询和修改的效率尽可能做到精确,同时各项功能的操作要简单,不需过多的对人员的培训。 而延边大学正推行学分制改革,进一步完善改进学生成绩管理系统很有必要。学生成绩管理系统是学校不可缺少的一个重要部分,它的内容对于学校的决策者和管理者来说都至关重要,所以学生成绩管理系统应该为用户提供充足的信息和快捷的查询手段。同时,学生成绩管理是各大学的主要日常管理工作之一,涉及到校、系、师、生的诸多方面,随着教学体制的不断改革,尤其是学分制、选课制的展开和深入,学生成绩日常管理工作及保存管理日趋繁重、复杂。推行学生成绩管理系统势在必行。 二、系统的开发目标 “学生成绩管理系统”针对的学校学生情况对学生各学年的成绩进行有效的管理。能够快速的查询出学生的各科成绩以及所在班级等各种用途。 学生成绩管理系统是将现代化的计算机技术和传统的教学、教务工作相结合,按照学院的工作流程设计完成的。为了使系统在学院的管理中发挥更大的作用,实现工作过程的计算机化,提高工作效率和工作质量,有如下的系统开发目标: 1.系统应具有实用性、可靠性和适用性,同时注意到先进性;

展翅计划学生操作说明

展翅计划学生操作说明 本学生操作说明介绍了展翅计划的流程,帮助学生了解如何参与展翅计划。展翅计划网址:https://www.doczj.com/doc/556327628.html, 一、注册与登录 学生可以在展翅网上注册个人账号。 二、挂靠高校团组织 登录展翅网后,选择自己所在的学校、院系,并上传自己的学生证,可以申请高校团委对自己的学生身份进行验证。通过验证的学生才可以参加展翅计划。 学生的学校及院系信息,在挂靠审核通过后,不能更改。学生的团组织挂靠申请结果将实时通过消息推送告知学生。 三、参加公益配岗流程 公益配岗职位将随机与学生匹配,用人单位无法选择参加实习的学生,匹配完成的学生,将与用人单位自动签订实习协议。 该部分岗位,一般质量较优质,主要以政府机关及事业单位职位为主。参加公益配岗职位的流程如下: 1、填写个人的实习期望,包括工作地点、职位性质、职位名称、薪酬; —1—

2、选择自己心仪的公益配岗职位; 3、公益配岗职位在报名的学生中随机选择,被选中的学生与用人单位签订实习协议,学生按约定的条件到用人单位实习。 四、参加双向选择流程 双向选择岗位顾名思义,就是学生与用人单位互相选择对方的方式。具体的操作流程如下: 1、学生完善个人简历,挑选心仪的用人单位投递简历; 2、用人单位根据自己的需求,在投递的简历中挑选符合用人条件的学生; 3、用人单位与学生签订实习协议,学生按约定的条件到用人单位实习。 五、特殊情况的处理 1、参加双向选择的学生,投递简历后,用人单位直接发送实习协议,如学生对实习协议存异议,应该怎么解决? 答:在与用人单位确认协议签订之前,可以联系用人单位,与用人单位协商解决;如无法解决,可以举报协议内容,由用人单位所属的团组织负责处理举报内容。 2、职位投递之后,发现自己不喜欢这个职位怎么办? 答:可与用人单位联系,请用人单位拒绝自己的投递。这个方法较唐突,因此希望同学们在投递职位的时候要慎重。 3、用人单位发送过来的协议,自己没留意而忽略掉了怎么办? 答:在该职位没有招满的前提下,可以重新投递该职位,并与用人单位联系,解释原因。同时,应避免这种情况发生,及时处理自己的消息。 更多问题,请联系展翅网客服QQ:2851256808 —2—

学生使用流程说明

学生使用流程说明 目录 1 子系统选择界面 (2) 2(教学查询阶段)查看课表 (2) 2.1查看课表 (3) 3(课前预习阶段)完成预习 (3) 3.1功能查看 (4) 3.2下载大厅 (4) 3.3完成预习 (5) 3.3.1登录大厅 (5) 3.3.2进入预习 (6) 4(课后作业阶段)完成报告 (8) 4.1功能查看 (8) 4.2下载大厅 (8) 4.3完成报告 (9) 4.3.1登录大厅 (9) 4.3.2完成报告 (9) 5 (课程考试阶段)评判学生考试 (10) 5.1功能查看 (10) 5.2下载大厅 (11) 5.3完成考试 (11) 5.3.1登录大厅 (11) 5.3.2进入考试 (12) 6 浏览器配置silverlight插件说明 (13) 6.1 浏览器安装silverlight插件过程(支持IE8以上) (13) 6.2 浏览器安全机制说明 (14)

系统登录网址http://120.26.48.243:7100/Page/BI/BI000.aspx 用户名和密码默认为学号,请登陆系统后尽快修改个人密码。 1 子系统选择界面 以学生身份登录平台,进入子系统选择页面 2(教学查询阶段)查看课表 进入“物理实验教学选排课系统”

步骤:我的课程→课表查看 3(课前预习阶段)完成预习 进入“物理实验预习系统”, 注:需要安装好Siliverligth插件才能正常显示,安装方法参见“6. 浏览器配置silverlight插件说明”

学生登录预习系统后具有以下功能 3.2下载大厅 选择“下载升级”菜单,点击“下载”按钮,下载大厅;如果电脑中没有安装.net3.5则需先安装.net3.5才能安装大厅; 注:win7和win8 系统默认已安装.net 3.5,一般不需要重新安装。

翻译流程步骤 (学生参考用)

翻译的基本步骤(学生参考用). 翻译前: 1、准备阶段:通读全文,了解、找出关键词和关键术语,了解原文的选材、文体、风格等特点,如记叙文、说明文还是议论文,是正式文体还是非正式文体,是科技文体还是小说、散文,从而确认译文的相应文体。 2、根据以上通读所掌握的信息,去阅读相关的著作、文章,找出关键词、术语的恰当翻译,以及翻译拟采用的原则、方法、技巧等。 3、查找并确认所需的翻译工具书,词典,借助计算机和网络的翻译,如谷歌翻译、百度、有道词典、Trados、传神、雅信等翻译软件。除此之外,还需有相当的较为专业的词典或工具书,如西方哲学词典、牛津文学术语词典、医学词典等等。另外就是有关本领域的专业书籍、期刊文章上的一些定义、分析、比较等。 翻译中: 1、将原文每段编上1.2.3…..序号,然后逐段开始翻译,英译中最好每段对应,开始可以先不编排格式,按照中英或英中每段对应的方式即可。鼓励同学们使用各类计算机辅助翻译技术进行试译,找到可取之处予以保留,发现错误与问题予以修改、润色,即Post-editing工作。 2、遇上特别难的词句或背景知识可以先放一放,并作出标记。 3.在翻译过程中要做好注释。 为什么要加注? 有时候,读者仅靠译文本身并不能全面、准确的理解原作者或者

译者所要表达的内容,因此,需要译者另外补充、添加一些信息加以解释说明,这就是加注的原因。 一般什么情况下需要注释? A对原作者进行介绍 B对原文来源作出注释 C对翻译过程作出贡献的单位和个人,如:译文受到某人的帮助、受到某项目的资助、某人审校了译文等 D专有名词(如特殊的人名、术语、地名、背景知识等)。如:“今年中国股市首个交易日就触及熔断机制,导致深沪两市提 早收盘”中的“熔断机制”。 F对翻译本身,也就是自己所选择的译文(词、句、篇三个层面)作出解释、说明。如,中国的“孝”可以作名词,也可以做动词,也可能是形容词等;英文中也有相同或相似情况,如:obey,obedience, filial 等,美国学者安乐哲(Roger Ames)将其译为“family reverence”名词,这时就需要对在不同语境下,译者为什么选择其中之一作出说明,如果是直接用的别人的说法,还可能标注引用,并在参考文献中列出。 翻译后: 1、回读全文,看是否有误译,进行诵读、修改,直至满意为止。 2、只读译文(不再对照原文),看是否通畅。 3、调整格式,按照要求,将中英文分开。

学生简易使用手册

中国知网大学生毕业设计(论文)管理系统 学生简易使用手册 编制时间:2018年9月 目录 第1部分学生使用流程 (2) 第2部分学生功能操作指南 (3) 2.1学生登录和用户设置 (3) 2.1.1登录系统 (3) 2.1.2首次登录强制修改密码 (3) 2.1.3用户设置 (3) 2.2报选题和达成师生双选关系 (4) 2.2.1学生申报课题 (4) 2.2.2选题分析 (6) 2.2.3学生选题 (6) 2.3提交开题综述 (7) 2.3.1提交开题综述 (7) 2.4提交指导记录 (9) 2.5提交毕业设计(论文)各版本文档 (9) 2.6提交答辩申请、参与答辩 (10) 2.6.1提交答辩申请 (10) 2.6.2参与答辩 (10) 2.7查看成绩 (11) 2.8导出文档 (11)

第1部分学生使用流程 “学生”角色使用流程主要包括以下内容:→→→1登录系统和用户设置 →→→2报选题和达成师生双选 →→→3提交开题综述 →→→4提交指导记录 →→→5提交毕业设计(论文)各版本文档 →→→6参与答辩 →→→7查看成绩 →→→8导出文档

第2部分学生功能操作指南 2.1学生登录和用户设置 2.1.1登录系统 ★第1步:打开登录页面 ★第2步:选择登录方式(账号密码登录或者已绑定微信登录) ★第3步:输入账号密码或者使用微信“扫一扫”功能,登录系统(选“学生”类型)★第4步:若双学位的学生,选择专业进入系统(单专业学生无须选择,直接进入系统) 2.1.2首次登录强制修改密码 ★第1步:使用初始账号密码登录成功 ★第2步:修改密码(须与初始密码不同),成功后会自动退出系统 ★第3步:使用新修改的密码重新登录 *非首次登录无须该项操作 2.1.3用户设置 *用户设置可以进行密码修改和进行个人信息维护

公章使用管理制度(精品流程)

公司印章使用管理制度 1.目的 公司印章是企业合法存在的标志,是企业权力的象征。为了规范公司印章刻制、启用、使用、保管、停用及作废,保证公司印章的合法性、可靠性、安全性和严肃性,有效地维护公司利益,特制定本规定。 2.定义 本规定中所指印章是在公司发布或管理的文件、凭证文书及与公司权利义务有关的文件上,以公司、法定代表人或有关部门名义证明其权威作用而使用的印章。 3.分类 3.1公司公章 公司按法定程序经工商行政管理部门注册登记后,在所在地公安部门登记备案,对外具有法人效用的公司正式印章。 3.2法定代表人个人名章 刻有公司法定代表人姓名,对外具有法律效力的个人印鉴。 3.3财务专用章 刻有公司财务专用的公司用章,代表公司承担所有财务相关的义务,享受所有财务相关的权利。 3.4合同专用章 刻有公司合同专用的公司印章,代表公司承担所有合同规定义务,享受所有合同规定权利。 3.5其他印章 在公司工作过程根据具体需要刻制并启用的除上述三类印章之外的公司用章。 4.适用范围 本管理规定适用于公司所有中心及部门。 5.职责 5.1行政办 5.1.1根据公司需要,确定公司印章的种类、范围、数量等; 5.1.2统筹组织印章的刻制、发放、启用、停用、收回、销毁,并对部分印章进行使用、保管、登记等管理工作;

5.1.3建立并管理公司印鉴档案; 5.1.4制定公司印章使用管理的规章制度; 5.1.5定期对印章管理制度的执行情况进行监督、检查。 5.2行政部办公室 负责协助行政办对部分印章进行使用、保管、登记等管理工作。 5.3各部门 5.3.1负责提出用印申请; 5.3.2负责根据工作需要提出印章配置申请; 5.3.3负责对部分印章进行使用、保管、登记等管理工作。 5.4印章管理员 5.4.1负责印章的保管、用印审核、使用登记,提出印章更换、停用申请; 5.4.2配合行政办的监督检查工作。 6.各印章授权管理部门 7.印章刻制及启用 7.1提交刻制申请、审批及刻制 因工作需要配置(或更换)印章须由印章需求部门(或印章使用管理部门)填写《印章刻制申请表》,经副总审批,行政办审核,总经理批准同意后,由行政办根据国家相关规定执行刻制。 7.2建立印鉴档案 新印章刻制完毕后须由行政办进行登记留样,连同《印章刻制申请表》一并归入印鉴档案并永久存档。

考试学生客户端操作步骤

考试学生客户端操作 1.1 考试登录 运行IE 浏览器,在地址栏输入连接考试服务器的网址。格式是: http://211. 82. 170. 80/SOWERUF 在输入网址以后,若提示浏览器安 全设置过高, 需要手工安装插件。单击 手工安装按钮。 说明:这里的插件是为考试而安装的插件,该插件是安全的,请放心安装。 单击手工安装以后,弹出下载插件 的界面,直接单击“运行”按钮或者“保 存”以后安装。

单击“运行” 按钮以后,根据提示 单击“下一步”按钮进入到右图界面, 单击“安装”按钮,开始安装。 在安装完以后,客户端桌面会自动 生成一个客户端运行快捷方式图标。可 以直接双击该图标登录服务器。 插件安装完以后会自动进入到考 试登录界面。 单击“考试科目”下拉菜单,选择 要进行考试的科目。进行考试环境的检 测。注:如果是单个科目系统会自动进 行环境检测。

单击“下 一步”,填写考生的准考证号信息,准 考证号就是学号。 注意:服务器可控制考生在输入准 考证号后,是否输入姓名验证。 单击“下一步”确 认自己的信息时候正确(单击“上一步” 可修改准考证号)。信息核对完毕单击 “下一步”。 显示考试信 息和考生须知。单击“进入考试”按钮, 将进入到考试操作界面。 进入考试操作界 面。

1.2 考生做题须知 1.2.1 客观题操作 进入到考试界面以后,客观题的 操作如右图所示. 根据该图上的相应说明可以进 行答题。 1.2.2 操作题操作 在会计电算化测评中,这里所谓的操 作系指在会计电算化软件(例如用友 U861)中进行的操作。 1.3 考试交卷 提示: 试题导航 答案选择区 考试倒计时 题面

学生网上评教说明及操作流程

学生网上评教说明及操作流程 一、评教说明: 1.网上评教是采用实名登陆、匿名评价的形式,登录用户名、密码与成绩查询系统和选课系统相同。进入网上评教系统以后,可以看到本学期所需评估课程的清单,请同学们认真、负责地核对每门课程名称、任课教师、辅导员和班主任信息,并对所学课程的所有教师做出客观公正地评价。 2.本次网上评教系统的问卷有五种类型:普通课程教师、体育课教师、实践课程教师、辅导员、班主任。 五种问卷的评估对象和评估指标均不同,评估时要看清楚问卷类型和被评人,同时认真阅读评估指标,并注意每份问卷都要回答完整,最后要确认提交成功。 3.选课系统和成绩查询系统都已与网上评教系统挂钩,若没有完成网上评教,将不能进入选课系统和成绩查询系统,请同学们务必在教学评估系统关闭前即(2014年1月5日23:30前)完成网上评教。 二、网上评教操作流程说明如下: 1.登陆学校主页职能部门教务处

2. 点击界面左侧“网上评教入口” 进入登陆界面,选择“学生”身份登录,输入学号和密码(原始密码为8888,如选课时已做修改,按修改后的密码为准,如未修改,请同学们及时修改自己的密码)。 3. 登录后,点击界面左侧“学生评教”链接

进入评教界面,此时“提交状态”栏均显示未提交 4. 点击“课程名称”,进入本门课程评教,点击“修改”,进行打分。

打分前请认真阅读评价“考核标准”,逐一对每项进行打分,分值在1-10分之间。 注意:不能全部选10分或1分,否则无法提交。 5. 打分完毕后,点击“提交”,确认后,即完成本门课程的评教。 本门课提交完成后,“提交状态”栏显示已提交。 变为“已提交”

毕设系统学生操作流程说明

毕设系统学生操作流程说明 浏览器方式访问地址http://202.204.193.229/StuExpbook登录系统, 身份选择学生用户名为学号 密码默认为学号进入系统可修改。 登录后如下图:选择毕业设计选项卡 上图显示为老师指定题目 若学生自主选题方式则参照下图选题完成后等待教师确认,被确认后则看到上图同意的的界面若被取消则进行下轮的选题。 在此登陆

点题目可查看详情点选题后选定题目 选题环节完成后指导老师下发任务书可在任务书界面查询指导老师下发的任务书情况选题 老师确认前可以取消

开题报告环节选择开题报告菜单:初始化后见下图: 点此查看任务书 注意提交的最晚时间,红色菜单说 明需要尽快完成该环节的任务 红色菜单 点此生成开题报告样 板,可进行编辑保存

若需上传开题报告需要把word 文档另存为rtf 格式才可直接上传操作如下:切忌必须为RTF 打开word 文档 选择文件---另存为如图: 选择图中所示格式保存到本地,被保存的文件可直接上传的到系统中。 开题报告提交后等待指导老师定稿 未定前可编辑修改 定稿后 变为只读如下图: 可对未定稿的开题报告进行编辑,上传 完成后在次 提交 建议使用在线编辑功能,点此按钮打开文档完成后保存关闭即可未提交下次仍可编辑

定稿后不可编辑 毕设过程中的师生指导记录可录入系统中操作如下图: 点此添加 添加后的指导记录在未被老师确认前可修改删除操作。 指导老师添加的指导记录在上图界面也可以看到。 中期检查 选择中期检查菜单进入中期检查环节,首先在下图界面点初始化中期检查表如图:

点此初始化 生成中期检查后可编辑,修改、至最后的提交操作:细节操作同于开题报告。 定稿前可进行重复 编辑、保存提交 上传相关附件 如外文翻译、 注意开题报告、中期检查等环节有截止时间限制未在规定时间内完成的过期将不能提交。 论文管理 选择论文管理菜单学生可上传毕设过程中的论文(包括图片、声音等多媒体文件)见下图:

钉钉直播教师、学生使用操作简易流程(2).doc

钉钉直播教师、学生使用操作流程 1.下载钉钉软件 钉钉软件有多个版本,适应多种终端,有电脑版、安卓手机版,苹果手机版,还有网页版。 2.建立钉钉班级群 老师可以自己组建一个钉钉班级群,点击“消息”——右上角“+”——“发起群聊”——“按分类建群”——“班级群”,邀请教师和学生时,可以将钉钉群的二维码或者是一个链接发送到微信群即可。学生收到邀请后下载钉钉软件,使用手机号码注册,进行绑定。 3.设备需求 准备一台电脑或笔记本(如果笔记本自带话筒声音太轻还需要准备一个外接话筒)、上课的课件、课后作业的电子文档。 直播对机器性能和网络有一定要求,直播前要进行调试和测试,建议cpu i5标压以上,“上传”带宽4mbps以上。 4.提前发送通知学生准时参加上课。 5.具备直播权限 只有完成个人实名认证且年满18周岁的成年人才可以发起直播,请确认是否已具备。 1.进入钉钉班级群,点击“发起直播”。

如有多个任教班级可先选择其中的一个,其他班级运用“多群联播”一起加入直播上课。 2.设置好上课的课题 最重要的是不要忘记打开连麦功能的开关(显示蓝色即为打开)。

3.打开上课的课件 (也可以正式开始直播后再打开)。 4.多群联播设置 如果有多个班级任教需要同时上课,可以点击多群联播,添加其他的班级群,这样就能同时让多个班级的学生一起学习。 注:这个需要直播的老师已经加入了其他班级群里,如果未加入需让该班级的辅导员加入其钉钉班级群的老师身份中。 5.开始直播 一切准备就绪,我们就点击“开始直播”,倒计时3秒后直播就正式开始,学生将会看到老师电脑屏幕画面听到老师讲课声音。 直播中的连麦功能: (1)学生连麦申请 连麦申请相当于学生举手发言,它在手机端全屏画面中才能显示。 (2)点名发言 学生点了连麦申请后,老师可在“连麦列表”中选择学生进行面向全体的发言。 老师点接通后,该学生的画面就出现在屏幕上,所有成员都能看到画像并听到其声音。

网上作业系统之学生端使用说明(201400910)

学生端使用说明 广东工业大学计算机学院网上作业系统学生端用于学生编程类作业题目的完成以及提交。 题库中共有约40道题目,请注意各章题目的要求完成时间。超出完成时间的题目将被锁定,不能继续答题。 第1章完成时间:2014-10-05 第3章完成时间:2014-12-15(稍难) 第6章完成时间:2014-11-30 第7章完成时间:2014-12-20 第8章完成时间:2015-01-10 学生端软件包中有个CHM文件,是学生端的使用帮助文件,在使用学生端前请先阅读。 1、登录 请使用最新版学生端,当发现当前版本学生端不能登录时,请及时更新最新版学生端。 打开学生端后,如图所示: . 请输入学号和密码,每个同学的初始密码为空,请第一次登录后及时修改。如果已经使用过C语言学生端的同学,则其密码可能是自行修改过的密码。

学号的组成规则如下: 班级简称+ 年级(2位)+ 班别(2位)+ 个人学号后四位例如,假设软件工程12级01班某同学的学号后四位是6789,则需要输入的学号为“软12016789”。 其它配置在一般情况下无需更改。 如果已经在C语言课程中登录过,则沿用当时的账号和密码。如果某同学无账号密码,或者忘记了密码,请及时联系老师。 2、打开题目 登录后,做题界面如图所示。 在右边工具栏中,点击题目目录按钮,则可以打开当前可做的所有题目。

所示。 的“EX00”题目具体要求。

3、做题流程 做题流程与其它C语言编程环境类似,首先进行程序编写,然后可以进行编译、运行;必要时可以进行手工单步或者定时单步调试等。 3.1 程序编写 Anyview右边的文本编辑框用于输入程序代码。

学生网上缴费操作说明

学生网上缴费操作说明 推荐使用IE浏览器或360浏览器。 步骤一:登录财务缴费门户 请在浏览器地址栏输入:https://www.doczj.com/doc/556327628.html,:8080 用本人校园信息服务门户的用户名和密码登录 用户名:学号,密码:默认是身份证后六位(大写) 登录成功后,进入学生缴费系统。 步骤三:进入缴费系统后,在“个人欠费查询”页面,点击“操作”栏中的“我要交费”链接后,进入付款页面。如下图红框所示: 如果有疑问,请拨打财务咨询电话:68902366(工作日拨打)。 步骤四:按以下说明进行网银缴费 1、付款页面:

请在此页面中确认支付的姓名、项目及金额都正确后,选择支付平台进行支付: (1)支付宝:支持有支付宝账户的用户进行支付; (2)首信易支付:支持一般网银用户利用银行网银支付; 如有疑问,请拨打财务咨询电话68902366(工作日拨打)。 2、选择支付平台支付 (1)支付宝平台 扫码支付:运行手机支付宝钱包,直接扫描屏幕中的二维码。扫码成功后,即可进行支付操作。 登录支付:您还可以点击上图屏幕右侧红框中的按钮,进入登录支付界面(如下图)。 在界面中录入本人的支付宝账户信息,登录成功后,即可进行支付操作。

如果在支付宝平台付款过程中出现问题,请拨打支付宝服务电话:95188(24小时)咨询。 支付宝支付小技巧:如果您没有网银,而且支付金额较大,超出银行卡快捷支付的限额,您可以利用快捷支付先将钱分批充入支付宝余额中,然后再利用余额进行支付即可。 (2)首信易支付平台 网银支付:选择本人的网银开户银行,进行支付。支付前,可以点击所选银行名称后的“帮助”,先了解支付步骤及限额等信息。 银联在线支付:如果您手中没有已开通网银的银行卡,且支付的金额不大,可以 选择“银联在线支付”(上图红框中部分),点击“提交”按钮,显示如下图界面:

公章使用管理制度及说明

公章印章的管理及使用规定 一:目的: 规范公司印章的管理,维护企业形象和合法权益,实现印章管理的制度化和规范化, 特制定本办法。 二:要求: 所有用章(印)手续必须严格按照本规定的程序办理执行。 三:印章的分类: 根据用途、类别分为:公司公章、财务专用章、法人章、公司合同章;四:具体内容: (一)管理制度: 1、公司合同章的使用须严格执行登记程序,完成审批手续后方可用印;不符合规定和不经主管领导签发的文件,保管人有权拒印; 2、任何情况不得携带各类章(印)外出或外借。若因工作需要,需提交申请,经总经理批准,在行政部登记后方可带出。公章带出期间,只可将公章用于申请事由,并对公章的使用承担一切责任; 3、公司公章由财务部保存,由行政部管理并严格按公司印章管理制度执行,不得私自使用印章,不得外借,不得因任何人的个人要求而违规用章; 4、财务章、法人章必须经总经理授权并登记后方可使用; 5、各类章一律不得使用在空白的:纸、单据、合同、协议上; 6、各类章的保管人有变更时,必须以文字形式完成使用记载、印章的交接手续;(二)使用范围: 1、公司公章的使用范围: 1)公司对外签发的文件; 2)以公司名义出具的证明及有关资料; 3)公司对外提供的业务报告; 4)公司章程、协议; 5)公司接收到的政府各职能部门要求盖章的文件、回执等。

2、合同章的使用范围: 1)公司签署的各项合同、协议等; 2)各个部门经过授权的业务使用; 3)流程:必须由用章部门填写用章审批表,行政部签字确认后,报总经理批,方可登记用章; 3、财务专用章及法人章主要用于货币结算等相关业务。 由总经理批准后,财务部方可使用; (三)各类印章的管理: 1:公司公章的保管与使用: 1)公司公章由财务部负责保管,由行政部负责管理; 2)使用公章须履行登记手续,由经办人到行政部填写《印章使用审批表》,写明用印事由,用章部门经理签字后,由行政部上报,总经理同意后,方可用印;3)任何人不得以任何事由要求在空白书面上加盖公章; 2、公司财务专用章、法人章的保管与使用: 1)财务专用章、法人章由财务负责人保管; 2)除正常的财务需要用到财务专用章与法人章外,其他事项必须经过财务部主管报请公司总经理批准后方可使用。法人章用印须履行登记手续,由经办人至财务部填写《法人章使用登记表》写明用印事由,并经直接上级、总经理审核同意后,方可用印。 3) 任何人不得以任何事由在空白书面上加盖财务专用章和法人章。 五、本管理制度自2016年1月1日起实施执行。 附件:《公司印章的使用登记表》 行政部 2016年1月4日

相关主题
文本预览
相关文档 最新文档