世纪旗云工具箱学习
- 格式:doc
- 大小:882.00 KB
- 文档页数:14
本文纯为个人的一点经验总结,如有不妥之处还望各位批评指正,共同探讨,共同进步,利人利己。
限于水平,个人认为对一般民用工程而言,框架是比较难的一种结构形式。
现对个人的理解分成两大部分:上部和基础。
以下就以多层为例谈谈自己的理解:一、上部构件1、柱对于框架结构而言,柱子布置的合理与否直接决定了结构的合理与否。
具体如何布置,结合具体工程。
现只说明需要注意的几点(1)对于短柱、框支柱、一级和二级框架的角柱,柱子要全高加密,对于三级和四级框架的角柱可以不全高加密;(2)对于轴压比超过限值的,如果相差不大(<0.1),可以采用12@100的复合井字箍筋或规范规定的其它方法来满足规范要求,而不用去增大柱截面;(3)对于矩形柱截面,不宜小于400mm,但如果有需要,验算也满足,可以做到300mm。
2、梁梁是水平构件,是水平方向的主要受力构件。
框架梁的截面高度按跨度的1/10~1/18确定,净跨与截面高度之比不宜小于4,高宽比不宜大于4。
对于框架梁,截面高度一般不小于400mm,宽度宜≥250mm(一般不小于柱截面的一半)。
具体布置结合具体工程,需要注意的有以下几点:(1)注意偏心,如果偏心过大,梁需要水平加掖,加掖做法规范有,这里不在赘述;(2)对于一、二、三级框架梁,纵向钢筋直接不应大于柱在该方向截面尺寸的1/20,比如,如果这个地方的柱子是400x400,那么梁的钢筋直径就不能大于20mm;(3)梁截面高度习惯按1/12取值,规范规定了1/10~1/18,是可以适当放大的,比如:5m的跨度,高度可以按400mm取值,只要计算挠度、裂缝满足就可以。
(4)梁上起柱,该梁应定义为转换梁,设计时按转换梁的要求设计;(5)井字梁一般为正方形板块,如果不是,长短边之比应小于1.5,井字梁的梁截面高度可取短跨的1/18,梁间距3米左右;井字梁四周的框架梁,按跨度可按1/12取值,设置抗扭钢筋,箍筋可根据需要适当加大,挠度、裂缝严格控制。
第二节常用工具箱01学时:4教学目标:熟练掌握常用工具箱工具的使用方法重点难点:选区工具的使用技巧教学内容:一、常用工具箱1、移动工具快捷键V在使用及其他工具时,临时使用移动工具,按住CTRL键即可实现。
实例练习:移动图像到另一个文件中;配合ALT键复制图像。
2、矩形(圆形)选框工具快捷键M配合SHIFT键建立正方、正圆选区以及加选图像;配合ALT键减选图像。
3、套索工具快捷键L多边形套索工具,配合BACKSPACE键退回前一选择节点。
4、魔棒工具快捷键W理解容差的概念和连续复选框的功能。
5、裁剪工具快捷键C对画布大小进行调整,同时利用图像菜单中的画布大小命令调整画布,也可以通过右键单击图像文件标题栏调出画布大小调整对话框。
6、放大镜工具快捷键C7、抓手工具快捷键H在使用及其他工具时,临时使用抓手工具,按住空格键即可实现。
二、特殊的选取工具——滤镜1、抽出滤镜①打开图像,全选,把图像复制到一个新的图层,选择新图层为工作状态。
②选择菜单——滤镜——抽出③用默认边缘高光工具把图像边缘勾出,可以变化工具笔刷大小来提高精确度。
④利用填充工具填充图像内部。
⑤点击预览观看效果。
⑥利用清理工具,清理多余部分,按住ALT键,还原图像。
⑦点选OK,完成抽出命令。
⑧在图像下层添加一个背景,美化画面。
2、Knock out 2①打开图像,全选,把图像复制到一个新的图层,选择新图层为工作状态。
②选择菜单——滤镜——Knock out 2——载入工作图层③用默认的内部对象命令(勾选多边形模式)选区图像内部不透明(不包括半透明)部分,尽量细致准确。
④点选“自动外部对象”命令,如果选择不够准确,编辑菜单点选撤销命令,执行第⑤步骤。
⑤选择内部命令右边的外部对象命令(勾选多边形模式)选区图像背景部分,尽量细致准确。
⑥CTRL+P处理图像⑦选择菜单——文件——应用,返回到ps继续处理图像。
课后记:。
学习工具使用技巧指南随着科技的发展,学习工具的使用已经成为现代学生必备的技能之一。
无论是在线学习平台还是各种学习应用程序,它们都为学生提供了更加便捷和高效的学习方式。
本指南旨在为大家提供一些学习工具使用的技巧,帮助大家更好地利用这些工具提升学习效果。
一、学习管理工具学习管理工具是学生在规划和组织学习过程中的得力助手。
以下是一些常见的学习管理工具及其使用技巧。
1. 学习计划工具学习计划工具可以帮助学生合理规划学习时间,安排学习任务。
其中,Trello和Todoist等工具非常实用。
使用这些工具,学生可以将学习任务拆解成小任务,设置截止日期,并通过提醒功能及时了解自己的学习进度。
2. 笔记管理工具Evernote和OneNote是两款非常受欢迎的笔记管理工具。
它们提供多种记录方式,包括文字、图片、录音等。
学生可以将课堂笔记、研究资料等整理归档,轻松查找和回顾学习资料。
此外,利用标签和文件夹功能,可以更好地组织笔记内容。
二、在线学习平台在线学习平台旨在为学生提供在线课程资源和学习社区。
以下是一些常见的在线学习平台及其使用技巧。
1. CourseraCoursera是一家知名的在线教育平台,提供各类课程,涵盖了从人文科学到技术工程的各个领域。
学生可以通过Coursera了解最新的学科知识,重要的是它可以根据学生的学习进度提供学习建议和反馈。
同时,Coursera的学习社区也是一个交流学习经验和解答问题的好地方。
2. edXedX是另一个受欢迎的在线学习平台,合作伙伴包括全球各大高校和机构。
学生可以通过edX在自己感兴趣的领域学习课程,并获得相应的证书。
平台上的论坛和问答功能也为学生提供了和老师、其他学生交流的机会。
三、学习辅助应用学习辅助应用可以帮助学生提升学习效果,以下是几个实用的学习辅助应用及其使用技巧。
1. AnkiAnki是一款智能记忆应用,可以帮助学生更有效地记忆知识点。
通过制定复习卡片,Anki可以根据学生的记忆曲线提供合适的复习时间和方式。
16 专业软件讲座We learn we go世纪旗云水池设计软件配筋设置简介郭素娟,郭艳军(北京世纪旗云软件技术有限公司,北京 100088)世纪旗云水池设计软件在计算完成后,设置了“配筋选项”菜单,如图1所示,该选项有多种功能设置,下面分别介绍各个选项的具体功能。
1钢筋直径间距选择点“钢筋直径间距选择”按钮,弹出如图2所示对话框,包括壁板、底板和顶板三项,可以在此选择某几个直径和间距,程序在配筋时将从选定的项中进行最接近计算方案的配筋,通过这项设置,可以使配筋结果更接近实际工程设计。
图1 图22 板按对称配筋对于水池配筋,每个位置的板都分内侧和外侧分别配置,由于内外侧受力不同,程序默认情况下按各自内力分别配筋。
但实际工程中,有时候内外侧配筋经常按对称来设计,因此软件提供“壁板按对称配筋”、“顶板底板按对称配筋”两个选项,可以对不同位置的板分别设置。
若勾选了该项,程序就会选择内侧或者外侧的最不利配筋方案作为该板的最终配筋方案。
3按最大配筋点配筋对于某块板的某一个配筋位置(如跨中X 向或跨中Y 向或某一边),程序会对该位置所有节点在所有组合下的内力结果都进行一次配筋计算,最后取使配筋结果最大的那个节点的内力做为该位置的配筋内力。
4按平均内力值配筋对于某块板的某一个配筋位置(如跨中X 向或跨中Y 向或某一边),程序对该位置所有节点在每种组合下的内力分别进行算术平均计算,根据平均后的内力值分别进行一次配筋计算,然后取使配筋最大的那个结果作为该位置的最终配筋内力。
对于这些节点,取平均内力时,按以下原则取用,最终取使配筋最大的那个方案进行配筋:1)对该位置所有弯矩为正的节点内力平均;2)对该位置所有弯矩为负的节点内力平均;3)对该位置所有轴力为正的节点内力平均;4)对该位置所有轴力为负的节点内力平均;5)对该位置所有轴力受拉且弯矩为正的内力平均;6)对该位置所有轴力受拉且弯矩为负的内力平均。
之所以分6种情况,就是为了避免出现正负相加互相抵消的情况。
=============================================================- Kernel Statistics toolbox- Last Update:2006/10/29- For questions or comments, please emailYuh-Jye Lee, yuh-jye@.tw orYi-Ren Yeh, yeh@.tw orSu-Yun Huang, syhuang@.tw- Web site: .tw/downloads/=============================================================Table of Contents=================- Introduction- Key Features- Data FormatFor classificationFor regression- Code Usage with ExamplesKDRUseKDRKPCAKSIR- Dimension Reduction Using KPCA or KSIR with ExamplesKPCA procedureKSIR procedure for classificationKSIR procedure for regression- LicenseIntroduction============Kernel Statistics toolbox is still in development. Two algorithms are now available. One is kernel principal component analysis (KPCA). The otheris kernel sliced inverse regression (KSIR).Key Features============* Construct principal components in the input space and feature space.* Provide a preprocess for preventing ill-posed problem encountered in KSIR. * Support linear, polynomial and radial basis kernels.* Can handle large scale problems by using reduced kernel.Data Format===========Kernel Statistics toolbox is implemented in Matlab. Use a data format which can be loaded into Matlab. The instances are represented by a matrix (rows for instances and columns for variables) and the labels (1,2,...,k) or responses are represented by a column vector. Note that you also canrepresent the labels of binary classification by 1 or -1.For classification-------------------instances| 10 -5 0.8 | => inst 1| 15 -6 0.2 | => inst 2| . | .| . | .| . | .| 21 1 -0.1 | => inst nlabels| 1 | => label of inst 1 => class 1| 5 | => label of inst 2 => class 5| . | .| . | .| . | .| 10 | => label of inst n => class 10For regression---------------instances| 11 -5 0.2 | => inst 1| 14 -7 0.8 | => inst 2| . | .| . | .| . | .| 20 2 -0.9 | => inst nlabels| 3.2 | => response of inst 1| 1.7 | => response of inst 2| . | .| . | .| . | .| -1.1 | => response of inst nCode Usage with Examples========================Kernel Statistics toolbox contains two main functions: KDR for constructingPCs and UseKDR for using the results of KDR. Besides, users also can directlyuse the two core programs, KPCA and KSIR, for a specific kernel matrix.Description for codesKDR : the main program for constructing PCs via different methods.UseKDR : using the results of KDR to build up the projected data matrix.KPCA : finds dimension reduction directions by PCA of a kernel matrix.KSIR : finds dimension reduction directions by sliced inverse regression of a kernel matrix.Usage of KDR:>>[Info] = KDR(label, inst, 'options')---------------------------------------------------------------------*Inputs of KDR:label : training data class label or responseinst : training data inputsoptions:-s statistic method. 0-PCA, 1-SIR (default:0)-t kernel type. 0-linear, 1-polynomial, 2-radial basis (default:2)-r ratio of random subset size to the full data size (default:1)-z number of slices (default:20)If NumOfSlice >= 1, it represents NumOfSlice slices.If NumOfSlice = 0, it extracts slices according toclass labels.-p number of principal components (default:1)If NumOfPC= r >= 1, it extracts the first r leadingeigenvectors.If NumOfPC= r < 1, it extracts leading eigenvectorswhose sum of eigenvalues is greater than 100*r% ofthe total sum of eigenvalues.-g gamma in kernel function (default:0.1)-d degree of polynomial kernel (default:2)-b constant term of polynomial kernel (default:0)-m scalar factor of polynomial kernel (default:1)*Outputs of KDR:Info results of Kernel Statistics method (a structure in Matlab).PC principal components of data.EV eigenvalues respect to the principal components.Ratio.RS reduced set.Space the space of Kernel Statistics method.Params parameters specified by the user in the inputsExample: Construct ten PCs via KPCA by using Gaussian kernel>>[Info_one] = KDR([], inst, '-s 0 -t 2 -g 0.1 -p 10');Example: Construct five PCs via reduced KPCA (10%) by using Gaussian kernel>>[Info_two] = KDR([], inst, '-s 0 -t 2 -p 5 -g 0.2 -r 0.1');Example: Construct PCs of 90% eigenvalue via KPCA by using reduced polynomial kernel >>[Info_three] = KDR([], inst, '-s 0 -t 1 -p 0.9 -r 0.1 -d 2 -m 3 -b 2'); Example: Construct one PCs via KSIR by using Gaussian kernel for 2-class problems>>[Info_four] = KDR(label, inst, '-s 1 -t 2 -p 1 -z 0 -g 0.3');Example: Construct 5 PCs via KSIR (30 slices) by using Gaussian kernel for regression problems>>[Info_five] = KDR(label, inst, '-s 1 -t 2 -p 1 -z 30 -g 0.2');Usage of UseKDR:>>[ProjInst] = UseKDR(inst, Info)---------------------------------------------------------------------*Inputs of UseKDR:inst :testing data inputsInfo :results of Kernel Statistics method*Output of UseKDR:ProjInst: the projected instancesExample: Get the projected inst form Info_one>>[ProjInst_one] = UseKDR(inst, Info_one);Example: Get the projected inst form Info_four>>[ProjInst_four] = UseKDR(inst, Info_four);Usage of KPCA:>>[EigenVectors, EigenValues, ratio] = KPCA(K, NumOfPC);---------------------------------------------------------------------*Inputs of KPCAK : kernel matrix (reduced or full)NumOfPC: If NumOfPC= r >= 1, it extracts the first r leading eigenvectors.If NumOfPC= r < 1, it extracts leading eigenvectors whose sumof eigenvalues is greater than 100*r% of the total sum of eigenvalues.*Outputs of KPCAEigenValues : leading eigenvaluesEigenVectors: leading eigenvectorsratio : sum of leading eigenvalues over total sum of all eigenvalues. Example: Construct ten PCs via KPCA by using a specific kernel matrix.>>[EigenVectors, EigenValues, ratio] = KPCA(K, 10);Example: Construct PCs whose ratio to the total sum is 95%.>>[EigenVectors, EigenValues, ratio] = KPCA(K, 0.95);Usage of KSIR:>>[EigenVectors, EigenValues, ratio] = KSIR(K, y, NumOfSlice, NumOfPC)---------------------------------------------------------------------*Inputs of KSIRK : kernel matrix (reduced or full)y : class labels or responsesNumOfSlice: If numerical, it represents the number of slices.If a string 'Class', the number of slices is equal to number ofdistinct classes in y.NumOfPC : If NumOfPC >= 1, it extracts the leading NumOfPC eigenvectors.If NumOfPC < 1, it extracts leading eigenvectors whose sumof eigenvalues is greater than 100*r% of the total sum of eigenvalues. *Outputs of KISREigenValues : leading eigenvaluesEigenVectors: leading eigenvectorsratio : sum of leading eigenvalues over total sum of all eigenvalues. Example: Construct PCs via KSIR for classification by using a specific kernel matrix. >>[EigenVectors, EigenValues, ratio] = KSIR(K, y, 'CLASS');Example: Construct two PCs via KSIR for 3-class problem.>>[EigenVectors, EigenValues, ratio] = KSIR(K, y, 'CLASS', 2);Example: Construct PCs via KSIR for regression (20 slices).>>[EigenVectors, EigenValues, ratio] = KSIR(K, y, 20);Example: Construct five PCs via KSIR for regression .>>[EigenVectors, EigenValues, ratio] = KSIR(K, y, 20, 5);Example: Construct PCs whose ratio to the total sum is 95% via KSIR for regression. >>[EigenVectors, EigenValues, ratio] = KSIR(K, y, 20, 0.95);Dimension Reduction Using KPCA or KSIR with Examples===================================================KPCA procedure-------------------------*Change your current directory to Kernel Statistics toolbox folder*Load dataset Ionosphere_dataset.mat (can be found in Kernel Statistics toolbox)>>load Ionosphere_dataset.mat*Construct PCs via KPCA>>[Info] = KDR([], inst, '-s 0 -t 2 -g 0.1 -p 10');*Read the contents of Info (PCs, eigenvalues, parameters, ...etc)>>Info>>Info.PC*Get the projected inst form the PCs>>[ProjInst] = UseKDR(inst, Info);KSIR procedure for classification---------------------------------*Change your current directory to Kernel Statistics toolbox folder*Load dataset Ionosphere_dataset.mat (can be found in Kernel Statistics toolbox)>>load Ionosphere_dataset.mat*Construct PCs via KSIR (note that we extracts m-1 PCs for m-class problems)>>[Info] = KDR(label, inst, '-s 1 -t 2 -g 0.165 -z 0 -p 1');*Read the contents of Info (PCs, eigenvalues, parameters, ...etc)>>Info>>Info.PC*Get the projected inst form the PCs>>[ProjInst] = UseKDR(inst, Info);KSIR procedure for regression-----------------------------*Change your current directory to Kernel Statistics toolbox folder*Load dataset Housing_dataset.txt (can be found in Kernel Statistics toolbox)>>load Housing_dataset.txt*Split the Housing data into inst and label>>inst =Housing_dataset(:,1:13);>>label = Housing_dataset(:,14);*Construct PCs via KSIR(note that we usually use 10~30 slices and extracts 3~5 PCs for regression problems) >>[Info] = KDR(label, inst, '-s 1 -t 2 -g 0.0037 -z 20 -p 5');*Read the contents of Info (PCs, eigenvalues, parameters, ...etc)>>Info>>Info.PC*Get the projected inst form the PCs>>[ProjInst] = UseKDR(inst, Info);License=======This software is available for non-commercial use only. The authors are not responsible for implications from the use of this software.。
LMI:Linear Matrix Inequality,就是线性矩阵不等式。
在Matlab当中,我们可以采用图形界面的lmiedit命令,来调用GUI接口,但是我认为采用程序的方式更方便(也因为我不懂这个lmiedit的GUI)。
对于LMI Lab,其中有三种求解器(solver): feasp,mincx和gevp。
每个求解器针对不同的问题:feasp:解决可行性问题(feasibility problem),例如:A(x)<B(x)。
mincx:在线性矩阵不等式的限制下解决最小化问题(Minimization of a linear objective under LMI constraints),例如最小化c'x,在限制条件A(x) < B(x)下。
gevp:解决广义特征值最小化问题。
例如:最小化lambda,在0<B(x),A(x)<lamba*B(x)限制条件下。
要解决一个LMI问题,首要的就是要把线性矩阵不等式表示出来。
对于以下类型的任意的LMI问题N' * L(X1, . . . , XK) * N < M' * R(X1, . . . , XK) * M其中X1, . . . , XK是结构已经事先确定的矩阵变量。
左侧和右侧的外部因子(outer factors)N和M是给定的具有相同维数的矩阵。
左侧和右侧的内部因子(inner factors)L(.)和R(.)是具有相同结构的对称块矩阵。
每一个块由X1, . . . , XK以及它们的转置组合而成形成的。
解决LMI问题的步骤有两个:1、定义维数以及每一个矩阵的结构,也就是定义X1, . . . , XK。
2、描述每一个LMI的每一项内容(Describe the term content of each LMI)此处介绍两个术语:矩阵变量(Matrix Variables):例如你要求解X满足A(x)<B(x),那么X就叫做矩阵变量。
浅谈水池桩基设计及问题处理摘要:在石化建构筑物设计中,污水处理水池是比较常见构筑物。
大型水池占地面积大,埋深在五六米范围内,特别是地处沿江沿海一带的化工厂污水处理水池,碰见地质条件差及地下水位高的情况,往往设计中既要考虑地基承载力不够,又要考虑水池自身抗浮不够等问题。
而要考虑采用桩基处理原地基。
因此,桩基在水池设计中的应用就比广泛,既要考虑满足地基承载力要求,同时还要满足抗浮抗拔要求。
那么桩基设计的应用对做化工设计人员是一个比较重要课题。
本文通过论述水池桩基的设计及现场碰见问题的解决方案,以解决水池地基处理满足实际情况及业主要求。
关键词:水池设计;地基承载力;抗浮;设计方法一、引言随着国家对环保要求越来越重视,化工厂区污水处理要求,各式各样的污水处理水池应运而生。
但是,就目前来说,由于工期紧迫,化工厂区地理位置等等因素。
所以在水池设计中地基往往不容易满足设计要求。
预应力管桩在地基处理中也是比较常见的一种地基处理方式,地基处理后承载力高,施工工期短,不易引起不均匀沉降。
但根据我国目前实际情况,往往是原石化厂区建厂比较早,现场以前可用数据丢失,国家规范不断更新,地勘单位地质勘探时间紧迫提供的地勘资料数据有误差,及设计人员经验有限,而造成设计人员计算桩基承载力及抗拔力,检测后达不到设计要求,造成二次施工耽误工期及增加经济成本。
所以实际项目实施需通过施工工艺及试桩等措施,取得相关数据反馈设计人员,设计人员获得真实准确数据,合理设计桩基地基处理已达到最优、最经济方案。
因笔者公司项目多为石化化工项目,故笔者主要就曾经碰见的相关项目做简要说明,建构筑物整体结构计算是通过世纪旗云水池及工具箱设计软件建模计算,相关节点参数查找部分图集,本文不做累述。
现只做水池桩基部分设计及现场问题解决进行概述分析。
二、工程实例本工程为武汉某一化工厂外排污水提标升级改造项目中的曝气生物滤池及臭氧氧化池。
设计标高采用相对标高,地面标高为+0.000。
学习工具使用技巧攻略在现代社会中,学习工具的使用已成为学生们不可或缺的一部分。
通过合理地利用各种学习工具,我们可以更加高效地学习和提升自己的知识水平。
然而,要想正确地使用学习工具并发挥它们的最大效果,并不是一件容易的事情。
本文将为大家介绍一些学习工具使用的技巧和攻略,希望对大家在学习中有所帮助。
一、数字化学习工具数字化学习工具包括电子书、在线课程平台、学习管理系统等。
这些工具可以为学生提供便利的学习环境,同时也给学习方式和学习内容带来了新的变革。
下面是一些建议用于正确使用数字化学习工具的技巧:1. 合理选择学习工具:根据自己的学习需求和兴趣,选择适合自己的数字化学习工具。
比如,如果你是一个喜欢阅读的人,可以选择下载一些电子书阅读器,以便随时随地进行阅读。
如果你对编程感兴趣,可以选择一些在线编程课程平台,提升自己的编程技能。
2. 制定学习计划:利用数字化学习工具的优势,制定一个详细的学习计划。
可以结合在线学习平台的课程进度,制定每天、每周或每月的学习目标,以提高学习效率。
3. 注重互动学习:数字化学习工具大多具有互动性,可以与老师或其他学生进行交流和讨论。
在学习中,积极参与这种互动,提出问题、分享观点,可以加深对学习内容的理解。
二、纸质学习工具纸质学习工具仍然是学生学习过程中不可或缺的一部分。
尽管在数字化时代,电子设备已经普及,但适当地使用纸质学习工具仍然有其独特的优势。
下面是一些纸质学习工具的使用技巧:1. 组织笔记:在学习过程中,使用笔记本进行记录是一个非常有效的学习方法。
可以将课堂笔记和自己的思考整理成简洁明了的笔记,利用颜色、标题等方式进行分类和标识,便于日后复习和查找。
2. 制定学习计划表:在纸质日历或计划表上制定学习计划,并将每天的任务进行详细的安排。
可以通过勾画或打勾的方式,给予自己一定的成就感,增加学习的动力。
3. 制作思维导图:思维导图是一种有效的整理和梳理思维的工具。
可以使用纸质笔记本上绘制思维导图,将各个知识点和思路进行关联和整理,帮助记忆和理解。