当前位置:文档之家› windows API函数大全

windows API函数大全

第一个:FindWindow根据窗口类名或窗口标题名来获得窗口的句柄,该函数返回窗口的句柄

函数的定义:HWND WINAPI FindWindow(LPCSTR lpClassName ,LPCSTR lpWindowName);

第一个参数填窗口的类名,第二个填窗口的标题名,其实是不需要同时填两个参数的,也就是说,你只要知道窗口的类名或窗口的标题就可以了,没有的那个就用NULL代替。

比如现在有一个窗口名为"无标题.txt - 记事本"的记事本程序。那么我就可以用上面的函数获得这个窗口的句柄,那获得了这个窗口的句柄我可以干什么呢?作用可大了,因为很多操作窗口的函数,都需要窗口句柄作参数,如移动、改变窗口大小的MoveWindow函数,在这里举个例子,大家就更能体会到这个FindWindow的用法、用处。

FindWindow例子:已知一个窗口名称,写一个程序关闭该窗口,假设当前电脑正有一个窗口名为"无标

题.txt - 记事本"的记事本程序运行

1 #include //API函数的头文件

2int main()

3 {

4 HWND wnd; //定义一个窗口句柄变量,用以存储找到的窗口句柄

5 wnd=FindWindow(NULL,"无标题.txt - 记事本"); //获得窗口名为"无标题.txt - 记事本"的窗口句柄

6

7 SendMessage(wnd,WM_CLOSE,0,0); //调用SendMessage函数,发送一个WM_CLOSE(关闭)消息给wnd

窗口句柄。

8

9return0;

10 }

如果要根据窗口类名来获得窗口句柄话,只要给函数的第一个参数填类名,第二个参数窗口名填NULL,即可,用Spy++可查看窗口类名。

第二个:SendMessage根据窗口句柄发送一个消息给窗口

函数定义:LRESULT SendMessage(HWND hWnd,UINT Msg,WPARAM wParam,LPARAM IParam);第一个参数是窗口句柄,第二参数个是消息类型,下面的消息表列举了所有消息,第三,四个参数是消息附带信息,解释依赖于消息类型,比如一个字符消息(WM_CHAR),那么第三个参数就储存有一个字符的ASCII码。消息机制大家都应该知道吧,Windows是基于消息的系统,鼠标移动键盘按键都会产生消息。

接下来举一个例子,发送一个WM_CHAR消息给窗口,也就是模仿键盘按键,接收消息的窗口依旧以"无标题.txt - 记事本"为例:

SendMessage例子:模仿键盘按键

1 #include

2

3int main()

4

5 {

6

7 HWND wnd;

8 wnd=FindWindow(NULL,"无标题.txt - 记事本");

9

10while(1)

11

12 {

13

14 SendMessage(wnd,WM_CHAR,WPARAM('a'),0);

15

16 Sleep(300);

17

18 }

19

20return0;

21

22 }

呵呵上面的例子是不是没用,这是为什么呢,哪里出错了吗?错倒是没有错,只是窗口句柄有问题,消息发送给了主窗口。接收消息的窗口不对。记事本窗口界面有些有什么东西呢?菜单,编辑框,状态栏等控件,控件也是窗口,既然是窗口,那当然它们也有窗口句柄,而在记事本里是在哪里打字的?编辑框控件里打字的嘛!所以消息应该发送编辑框控件,那如何获得记事本里编辑框控件的窗口句柄呢?用FindWindow吗?不知道编辑框窗口标题名,类名也不知道,当然也有其它方法获取编辑框窗口标题名和窗口类名,如Spy++。关于如何获得编辑框句柄,将在以后的函数中会有介绍,这里我们就用WindowFromPoint这个函数来获取,这个函数获取窗口句柄的方法比较笨,(相对于我这个例子来说),这个函数是根据什么来获取窗口句柄的呢?根据屏幕坐标点,如屏幕坐标点20,20,当前是哪个窗口占有,就返回哪个窗口的句柄。有了这个函数,我们还需要一个函数GetCursorPos获取鼠标当前位置(针对于屏幕);

可行的例子:模仿键盘按键:

1 #include

2

3int main()

4 {

5 POINT curpos; //一个可储存坐标点的结构体变量,x横坐标,y,纵坐标,如curpos.x curpos.y

6

7while(1)

8 {

9 GetCursorPos(&curpos); //获取当前鼠标的位置,位置将储存在curpos里。

10 HWND hWnd = WindowFromPoint(curpos); //根据curpos所指的坐标点获取窗口句柄

11 SendMessage(hWnd,WM_CHAR,WPARAM('g'),0); //发送一个字符(按键)消息g给当前鼠标所指向的窗口句柄

12 Sleep(300); //睡眠三百毫秒,相当于等待三分之一秒

13 }

16 }

这个程序一运行后,只要把鼠标指向要输入字符的窗口句柄,那么就相当于键盘每三分之一秒按了一个g键,试试吧!

如果这样觉得模仿键盘按键太麻烦的话,那么就用keybd_event这个函数,这个专门用于模仿键盘按键的,关于怎么用,自己百度一搜,就知道了。既然SendMessage能模仿键盘按键的话,那也能模仿鼠标左击,右击。而此时SendMessage函数第三,四个参数的解释就是储存有鼠标左击,右击时的位置。如模仿鼠标右击,想一想,一次鼠标右击有哪几步,分别是鼠标右键按下,鼠标右键松开,如果你按下鼠标右键不松开,那它是不是鼠标右击,不是的,直到你松开鼠标右键,才能算是一次完整的鼠标右击.鼠标右键按下的消息类型是

“WM_RBUTTONDOWN”,右键松开的消息是“WM_RBUTTONUP”,那么一次完整的鼠标右击应该是:

1 SendMessage(wnd,WM_RBUTTONDOWN,0,0); //鼠标右键按下,第三,四个参数说明了鼠标按下时的位置

2 Sleep(100); //间隔100毫秒

3 SendMessage(wnd,WM_RBUTTONUP,0,0); //鼠标右键松开

同样,也有一个专门模仿鼠标动作的函数,mouse_event这个函数,可以模仿鼠标的移动,单击,双击等。以后会有专门介绍。

第三个:GetCursorPos获取鼠标当前位置(屏幕)

这个函数在SendMessage函数有介绍,这里仅举一个例子,在界面里不停的输出鼠标当前位置。

1 #include

2

3 #include

4

5int main()

6

7 {

8 POINT curpos;

9

10while(1)

11

12 {

13

14 GetCursorPos(&curpos);

15

16 printf("x:%d,y:%d",curpos.x,curpos.y);

17

18 Sleep(300);

19

20 printf("\n");

21

22 }

23 }

第四个:WindowFromPoint根据坐标点获得对应的窗口句柄

在SendMessage有解释,这里仅举一个例子,鼠标指向哪个窗口,就关闭哪个窗口。

1 #include

2

3int main()

4

5 {

6

7 Sleep(2500); //等待一会儿,用于把鼠标移到其它窗口上去,避免指向本身进程的窗口,关掉自己的窗口。

8

9 POINT curpos;

10

11while(1)

12

13 {

14

15 GetCursorPos(&curpos);

16

17 HWND wnd=WindowFromPoint(curpos);

18

19 SendMessage(wnd,WM_CLOSE,0,0);

20

21 Sleep(300);

22

23 }

24

25 }

第五个MoveWindow根据窗口句柄移动窗口,改变窗口大小

函数定义:

BOOL MoveWindow( HWND hWnd, int X, int Y, int nWidth, int nHeight, BOOL bRepaint );

hWnd是要改变大小的窗口的句柄,x,y相对于屏幕的坐标,窗口左上角的位置与之相对应,nWidth和nHeight 是窗口新的宽高,bRepaint指定窗口是否重画。

这里依旧以"无标题.txt - 记事本"为例子,改变这个窗口大小,并把窗口移到左上角去。

1 #include

2int main()

3 {

4 HWND wnd;

5 wnd=FindWindow(NULL,"无标题.txt - 记事本");

6 MoveWindow(wnd,0,0,220,120,NULL);

7return0;

8 }

第六个ShowWindow设置窗口显示状态,如隐藏,最大化,最小化

函数定义BOOL ShowWinow(HWND hWnd,int nCmdShow);

SW_HIDE:隐藏窗口并激活其他窗口。第一个参数hWnd指明了窗口句柄,第二个参数指明了窗口的状态,现在给出第二个参数常用取值范围:

SW_MAXIMIZE:最大化指定的窗口。

SW_MINIMIZE:最小化指定的窗口并且激活在Z序中的下一个顶层窗口。

SW_RESTORE:激活并显示窗口。如果窗口最小化或最大化,则系统将窗口恢复到原来的尺寸和位置。在恢复最小化窗口时,应用程序应该指定这个标志。

SW_SHOW:在窗口原来的位置以原来的尺寸激活和显示窗口。

ShowWindow例子:程序运行后,在桌面上隐藏一个指定的窗口,并在4秒后再将其显示

1 #include

2int main()

3 {

4 HWND wnd;

5 wnd=FindWindow(NULL,"无标题.txt - 记事本");

6 ShowWindow(wnd,SW_HIDE);

7 Sleep(5000);

8 ShowWindow(wnd,SW_SHOW);

9return0;

10 }

第七个SetCursorPos设置鼠标的位置、把鼠标移动到指定的位置

函数定义:BOOL SetCursorPos(int x,int y);

这个函数的两个参数我想大家应该知道是什么意思吧,屏幕的坐标点。

直接看例子:

1 #include

2int main()

3 {

4int sec=0;

5while(sec<200)

前面介绍过WIN32_FIND_DATA结构里dwFileAttributes成员的几个常用属性,根据这个我们知道隐藏是FILE_ATTRIBUTE_HIDDEN,只读是FILE_ATTRIBUTE_READONLY。

那么把E盘下文本文件的属性设为隐藏和只读的语句就是:

SetFileAttributes("e:\\a.txt",FILE_ATTRIBUTE_HIDDEN|FILE_ATTRIBUTE_READONLY);

(说明:这个函数同样也能设置文件夹属性)

虽然这个语句可以达到要求,但不建议用,因为会覆盖掉文件的原来属性,也就是说如果这个文件之前有系统属性(系统文件)的话,那么这个语句一旦执行后,文件就只有隐藏和只读属性了。

比如一个文件原先就有隐藏属性,依旧以a.txt为例子,那么我把它设为只读,是不是这个语句就可以呢?SetFileAttributes("e:\\a.txt",FILE_ATTRIBUTE_READONLY);这样的话,虽然文件有只读属性了,但隐藏属性却没有了。

那要如何在不覆盖掉原来的属性下,把文件设为只读呢,其实说了这么多的废话,总结起来就一句话:如何增加一个文件的属性!

前提是要获得这个文件的原有属性:获得文件的属性,在FindFirstFile函数讲过。好吧!直接看例子:

假设e盘的a.txt文件属性为隐藏,给它增加只读属性:

1 #include

2int main()

3

4 {

5 WIN32_FIND_DATA fd;

6 FindFirstFile("e:\\a.txt",&fd);

7 fd.dwFileAttributes|=FILE_ATTRIBUTE_READONLY; //在原来的属性下增加只读属性

8 SetFileAttributes("e:\\a.txt",fd.dwFileAttributes); //设置文件的属性

9return0;

10 }

第二个例子:如何去掉一个文件的属性

(补习一下,懂的人直接跳过)

我想懂这里的按位或、按位与或者按位异或运算的人应该知道该如何去掉一个文件的属性。其实一个文件信息都是以二进制代码说明的。

比如一个八位二进制码:10000010,这里的每一位是不是只有0和1取值,不是0,就是1,正好符合一个文件属性的有无,如这个文件是隐藏的吗?只有是和不是,这样我们规定把这八位二进制码的第一位用于确定文件是否具有隐藏属性,如果为1那便是隐藏,无则没有,以此类推第二位就代表文件的只读,第三位系统。。。但要如何判断呢,或者把某一位的值改变呢,用按位运算就可以,00000010,我要把第2位的值设为0,其它位上的值保持不变,用按位异或运算即可,与00000010进行按位异或运算,但这里并不是与它本身进行运算,不管任何八位二进制数的值是多少只要与00000010进行按位异或运算,那第二位都会变成0,而其它的位保持不变。这样为了方便,我们就把00000010进行宏定义,方便记忆,这个二进制数的十进制为2。宏定义

#define FILE_ATTRIBUTE_READONLY 2

明白了这个我们就来清除一个文件的一种属性吧!

清除一个文件的隐藏属性,假设a.txt为隐藏文件:

1 #include

2int main()

3

4 {

5 WIN32_FIND_DATA fd;

6 FindFirstFile("e:\\a.txt",&fd); //获取文件信息

7 fd.dwFileAttributes^=FILE_ATTRIBUTE_HIDDEN; //在原来的属性下删除隐藏属性

8 SetFileAttributes("e:\\a.txt",fd.dwFileAttributes); //设置文件的属性

9return0;

10 }

如果单单只针对文件的属性进行操作的话,可以用GetFileAttributes函数获取文件的属性,该函数只一个参数,那就是文件的路径,函数返回一个DWORD值,包含文件属性信息。

第十八个ShellExecute运行一个程序

函数定

义:ShellExecute(HWND hwnd, LPCSTR lpOperation, LPCSTR lpFile, LPCSTR lpParameters, LPCST R lpDirectory, INT nShowCmd);

第一个参数hwnd是父窗口的句柄,可以为NULL,第二个参数lpOperation表示行为,第三个参数lpFile是程序的路径名,第四个参数lpParameters是给所打开程序的参数,可以为NULL,第五个参数lpDirectory可以为NULL,第六个参数nShowCmd跟ShowWindow函数的第二个参数一样,作用也一样,如果打开的程序有窗口的话,这个参数就指明了窗口如何显示.

例如打开一个记事本:

1 ShellExecute(NULL,"open","NOTEPAD.EXE",NULL,NULL,SW_SHOWNORMAL);

而且这个函数还可以指定程序打开一个属于程序本身类型的文件,假如e盘有一个a.txt文件;我调用函数运行记事本程序并打开这个文本文件.

1 ShellExecute(NULL,"open","NOTEPAD.EXE","e:\\a.txt",NULL,SW_SHOWNORMAL);

这里由于记事本程序属于系统本身自带的程序,所以没有绝对路径.

这个函数还可以打开一个网站:

1 ShellExecute(NULL,"open","https://www.doczj.com/doc/5b18909176.html,",NULL,NULL,SW_SHOWNORMAL);

2 ShellExecute(NULL,"open","C:",NULL,NULL,SW_SHOWNORMAL);

类似的函数还有WinExec,只有两个参数,它的最后一个参数跟ShellExecute函数的最后一个参数一样.

而第一个参数则是程序路径名.举个例子:WinExce("NOTEPAD.EXE",SW_SHOWNORMAL);

这个函数也可以给程序传递一个文件名供要运行的程序打开,那要如何加进去呢,这里又没有第三个参数,

方法把路径名加在NOTPEPAD.EXE的后面,要以空格来分开如:

1 WinExce("NOTEPAD.EXE e:\\a.txt",SW_SHOWNORMAL);

第十九个PlaySound播放一个WAV文件

函数定义:BOOL PlaySound(LPCSTR pszSound, HMODULE hmod,DWORD fdwSound);

之前API函数的例子,都是针对DOS编程的,严格来说是在windows下的仿DOS(cmd)进行编程,编写控制台应用程序大家都知道,主函数是main,那针对windows编程的主函数也是main吗?不是的,windows 下的主函数(入口函数)是WinMain。在定义main主函数的时候,可以给它带两个参数,也可以不带。而WinMain 函数就不能这样了,它有固定的格式,它必须带四个参数。

现给出WinMain函数的固定格式:

int WINAPI WinMain( HINSTANCE hInstance, HINSTANCE hPrevInstance, instance LPSTR lpCmd Line, int nCmdShow)

大家如果有兴趣可以通过其它渠道了解一下各参数的意思,现在我们只需要知道WinMain函数就是这样定义的,不理解也没关系。

知道了这个我们就来编一个WINDOWS程序吧!

因为我们是针对windows编程,所以要建一个Win32 Application工程,步骤是点击文件,然后选择新建,在弹出的对话框里选择工程,再选中Win32 Application 接着在右边的工程名称下填工程名称,名字随便取。之后点确定。接着又弹出了一个对话框,这里为了方便,我们选择“一个简单的 Win32 程序”,点完成。接着双击WinMain弹出代码编辑窗口,做完这个我们就可以打代码了。

简单的例子如下:

1 #include "stdafx.h"

2

3int APIENTRY WinMain(HINSTANCE hInstance,

4 HINSTANCE hPrevInstance,

5 LPSTR lpCmdLine,

6int nCmdShow)

7 {

8

9while(1)

10

11 Sleep(100);

12return0;

13 }

怎么样够简单吧,是不是觉得奇怪,怎么没有窗口,因为窗口要自己创建,不像控制台程序,只要一运行便会有窗口。虽然没有窗口,但你创建了一个进程,打开任务管理器,可以找到你所创建的那个进程,其实也没什么奇怪的,像WINDOWS本身的一些系统服务,也是只有进程,没有窗口的像spoolsv.exe,svchost.exe。

那要如何创建一个窗口呢?要创建一个窗口,就必须要向系统提供窗口的信息,如你要创建的窗口名字叫什么,窗口图标是什么,窗口大小,窗口背景色等,不然,系统怎么给你创建窗口呢?所以为了方便,VC就定义了一个结构,专门用存储窗口信息。

现给出这个结构的定义。

1 typedef struct _WNDCLASS {

2 UINT style; //描述类风格

3 WNDPROC lpfnWndProc; //窗口处理函数

4int cbClsExtra; //表示窗口类结构之后分配的额外的字节数。系统将该值初始化为0

5int cbWndExtra; //表示窗口实例之后分配的额外的字节数。系统将该值初始化为0

6 HINSTANCE hInstance; // 应用程序实例句柄由WinMain函数传进来

7 HICON hIcon; //窗口图标句柄

8 HCURSOR hCursor; //窗口光标句柄

9 HBRUSH hbrBackground; //画刷句柄

10 LPCTSTR lpszMenuName; //窗口菜单名

11 LPCTSTR lpszClassName; //窗口类名

12 } WNDCLASS, *PWNDCLASS;

好了,如果我们已经把窗口信息填好了,那我们要怎样把这个信息告诉系统呢,也就是把要创建窗口的信息传给系统。这里我们调用RegisterClass函数就能实现这个功能。注册完窗口,我们就要创建窗口,用CreateWindow 函数就能实现,不要问为什么注册窗口后直接显示不就行了,还要搞什么创建窗口。这我也不知道,反正你只要记住这格式就行了,硬式规定的,你想创建一个窗口,就必须按这些步骤来。

好了,窗口创建了,我们就要调用ShowWindow函数显示窗口,然后用UpdateWindow函数刷新一下,确保窗口能立即显示。

以下详细实现代码:

1 #include "stdafx.h"

2 #include

3int APIENTRY WinMain(HINSTANCE hInstance,

4 HINSTANCE hPrevInstance,

5 LPSTR lpCmdLine,

6int nCmdShow)

7 {

8

9 WNDCLASS wndcls; //定义一个存储窗口信息WNDCLASS变量

10 wndcls.cbClsExtra=0; //默认为0

11 wndcls.cbWndExtra=0; //默认为0

12 wndcls.hbrBackground=(HBRUSH)GetStockObject(GRAY_BRUSH); //背景画刷

13 wndcls.hCursor=LoadCursor(NULL,IDC_CROSS); //十字光标

14 wndcls.hIcon=LoadIcon(NULL,IDI_ERROR); //窗口图标

15 wndcls.hInstance=hInstance; //应用程序实例句柄由WinMain函数传进来

16 wndcls.lpfnWndProc=NULL; //窗口消息处理函数

17 wndcls.lpszClassName="windowclass"; //窗口类名

19 wndcls.style=CS_HREDRAW | CS_VREDRAW; //窗口类型,CS_HREDRAW和CS_VERDRAW 表明

20//当窗口水平方向垂直方向的宽度变化时重绘整个窗口

21 RegisterClass(&wndcls); //把窗口信息提交给系统,注册窗口类

22 HWND hwnd; //用以存储CreateWindow函数所创建的窗口句柄

23 hwnd=CreateWindow("windowclass","first windows",

24 WS_OVERLAPPEDWINDOW,0,0,600,400,NULL,NULL,hInstance,NULL);//创建窗口

25 ShowWindow(hwnd,SW_SHOWNORMAL); //窗口创建完了,显示它

26 UpdateWindow(hwnd); //更新窗口,让窗口毫无延迟的显示

27return0;

28 }

是不是出错了,内存不能读取,为什么了呢,因为你创建的窗口没有消息处理函数,windows系统当然不允许这样一个窗口存在,对按键,鼠标都没有反应,这样的窗口是没有实际意义

的。 wndcls.lpfnWndProc=NULL; //窗口消息处理函数,就是前面这句,必须要填

窗口过程(消息)处理函数,那这个函数是怎样定义的呢,像WinMain一样,它也有固定的格式。

窗口过程处理函数的格式:

LRESULT CALLBACK WinSunProc(HWND wnd,UINT uMsg,WPARAM wParam,LPARAM lParam)

下面的这个是一个窗口创建的完整例子:

1 #include "stdafx.h"

2 #include

3 LRESULT CALLBACK WinSunProc(HWND hwnd,UINT uMsg,WPARAM wParam,LPARAM lParam)

4 {

5if(uMsg==WM_LBUTTONDOWN) MessageBox(NULL,"kdjfkdf","Kjdfkdfj",MB_OK); //处理鼠标按下消息,弹出消息框 6return DefWindowProc(hwnd,uMsg,wParam,lParam); //未处理的消息通过DefWindowProc 函数交给系统处理

7 }

8int APIENTRY WinMain(HINSTANCE hInstance,

9 HINSTANCE hPrevInstance,

10 LPSTR lpCmdLine,

11int nCmdShow)

12 {

13

14 WNDCLASS wndcls; //定义一个存储窗口信息WNDCLASS变量

15 wndcls.cbClsExtra=0; //默认为0

16 wndcls.cbWndExtra=0; //默认为0

17 wndcls.hbrBackground=(HBRUSH)GetStockObject(GRAY_BRUSH); //背景画刷

18 wndcls.hCursor=LoadCursor(NULL,IDC_ARROW); //光标

19 wndcls.hIcon=LoadIcon(NULL,IDI_ERROR); //窗口图标

20 wndcls.hInstance=hInstance; //应用程序实例句柄由WinMain函数传进来

21 wndcls.lpfnWndProc=WinSunProc; //窗口消息处理函数

22 wndcls.lpszClassName="windowclass"; //窗口类名

24 wndcls.style=CS_HREDRAW | CS_VREDRAW; //窗口类型,CS_HREDRAW和CS_VERDRAW 表明

25//当窗口水平方向垂直方向的宽度变化时重绘整个窗口

26 RegisterClass(&wndcls); //把窗口信息提交给系统,注册窗口类

27 HWND hwnd; //用以存储CreateWindow函数所创建的窗口句柄

28 hwnd=CreateWindow("windowclass","first windows",

29 WS_OVERLAPPEDWINDOW,0,0,600,400,NULL,NULL,hInstance,NULL); //创建窗口

30 ShowWindow(hwnd,SW_SHOWNORMAL); //窗口创建完了,显示它

31 UpdateWindow(hwnd); //更新窗口,让窗口毫无延迟的显示

32 MSG msg; //消息结构类型

33while(GetMessage(&msg,NULL,0,0)) //获取消息

34 {

35//TranslateMessage(&msg); //此函数用于把键盘消息(WM_KEYDOWN,WM_KEYUP)

转换成字符消息WM_CHAR

36 DispatchMessage(&msg); //这个函数调用窗口过程处理函数,并把MSG里的信息处理后传给过程函数的四个参数

37 }

38return0;

39 }

WinSunProc函数的四个参数,分别对应着SendMessage函数四个参数,详情参见SendMessage函数参数解释。

MSG类型解释:

结构定义:

1 typedef struct tagMSG

2 {

3 HWND hwnd; //hwnd表示消息将要发送给的窗口句柄

4 UINT message; //消息类型,如WM_WMCLOSE,WM_CHAR,WM_LBUTTONDOWN,参见消息表

5 WPARAM wParam; //消息附带信息,取值的意思具体依据消息类型而定

6 LPARAM lParam; //消息附带信息,取值的意思具体依据消息类型而定

7 DWORD time; //消息的发送时间,不常用

8 POINT pt; //消息发送时,鼠标所在的位置,不常用

9 }MSG;

大家试着把上面的例子运行一遍,然后关掉窗口,再运行一遍,是不是出错了,因为前一个程序虽然窗口关闭了,但进程还在运行,还记得那个循环语句吗?while(GetMessage(&msg,NULL,0,0))就是这个。只要条件成立,进程就会一直运行下去。如何让这个循环结束呢?用 PostQuitMessage(0); 这个语句就行了,参数0表示给自身窗口发送一个退出消息,当GetMessage函数接到PostQuitMessage函数发出的消息后,就会返回0值。如在窗口过程函数中处理窗口关闭WM_CLOSE消息:if(uMsg==WM_CLOSE)PostQuitMessage(0); 这样只要一关闭窗口,它的进程也会结束。

接下来解释一下CreateWindow函数参数的意思,函数定义

1 HWND CreateWindow(LPCTSTR lpClassName, //窗口类名,应与WNDCLASS结构里的成员lpszClassName一致

2 LPCTSTR lpWindowName,, //窗口标题名

3 DWORD dwStyle,//窗口的风格,取值参见表Style

4

5int x,

6int y, //x,y表示所创建窗口左上角位置

7int nWidth,

8int nHeight, //nWidth,nHeight表示窗口的宽高

9 HWND hWndParent, //父窗口句柄,如果不是子窗口,这里取值为NULL

10 HMENU hMenu, //菜单句柄,没菜单的话,取NULL值

11 HANDLE hlnstance, //对应着WinMain函数的第一个参数

12 LPVOID lpParam); //NULL

表Style:(参考:百度)

WS_BORDER:创建一个单边框的窗口。

WS_CAPTION:创建一个有标题框的窗口(包括WS_BODER风格)。

WS_CHILD:创建一个子窗口。这个风格不能与WS_POPUP风格合用。

WS_CHLDWINDOW:与WS_CHILD相同。

WS_CLIPCHILDREN:当在父窗口内绘图时,排除子窗口区域。在创建父窗口时使用这个风格。

WS_CLlPBLINGS;排除子窗口之间的相对区域,也就是,当一个特定的窗口接收到WM_PAINT消息时,

WS_CLIPSIBLINGS 风格将所有层叠窗口排除在绘图之外,只重绘指定的子窗口。如果未指定WS_CLIPSIBLINGS 风格,并且子窗口是层叠的,则在重绘子窗口的客户区时,就会重绘邻近的子窗口。

WS_DISABLED:创建一个初始状态为禁止的子窗口。一个禁止状态的窗口不能接受来自用户的输入信息.

WS_DLGFRAME:创建一个带对话框边框风格的窗口。这种风格的窗口不能带标题条。

WS_GROUP:指定一组控制的第一个控制。这个控制组由第一个控制和随后定义的控制组成,自第二个控制开始每个控制,具有WS_GROUP风格,每个组的第一个控制带有WS_TABSTOP风格,从而使用户可以在组间移动。用户随后可以使用光标在组内的控制间改变键盘焦点。

WS_HSCROLL:创建一个有水平滚动条的窗口。

WS_ICONIC:创建一个初始状态为最小化状态的窗口。

与WS_MINIMIZE风格相同。

WS_MAXIMIZE:创建一个初始状态为最大化状态的窗口。

WS_MAXIMIZEBOX:创建一个具有最大化按钮的窗口。该风格不能与WS_EX_CONTEXTHELP风格同时出现,同时必须指定WS_SYSMENU风格。

WS_OVERLAPPED:产生一个层叠的窗口。一个层叠的窗口有一个标题条和一个边框。与WS_TILED风格相同。WS_OVERLAPPEDWINDOW:创建一个具有WS_OVERLAPPED,WS_CAPTION,

WS_SYSMENU WS_THICKFRAME,WS_MINIMIZEBOX,WS_MAXIMIZEBOX风格的层叠窗口,与

WS_TILEDWINDOW风格相同。WS_POPUP;创建一个弹出式窗口。该风格不能与WS_CHLD风格同时使用。

WS_POPUWINDOW:创建一个具有WS_BORDER,WS_POPUP,WS_SYSMENU风格的窗口,WS_CAPTION 和WS_POPUPWINDOW必须同时设定才能使窗口某单可见。

WS_SIZEBOX:创建一个可调边框的窗口,与WS_THICKFRAME风格相同。

WS_SYSMENU:创建一个在标题条上带有窗口菜单的窗口,必须同时设定WS_CAPTION风格。

WS_TABSTOP:创建一个控制,这个控制在用户按下Tab键时可以获得键盘焦点。按下Tab键后使键盘焦点转移到下一具有WS_TABSTOP风格的控制。

第二十八个LoadImage装载位图、图标、光标函数

函数定义:

HANDLE LoadImage(HINSTANCE hinst,LPCTSTR lpszName,UINT uType,int cxDesired,int CyDesir ed,UINT fuLoad)

这里我们只要这个函数的几个简单功能:从磁盘加载位图,从磁盘加载图标,从磁盘加载光标。所以第一个参数hinst我们不用管它,直接填NULL就行,第二个参数lpszName是图片文件所在路径名,第三个参数uType 指明要加载的是什么类型的图片,

是位图(填IMAGE_BITMAP),还是光标(填IMAGE_CURSOR),还是图标(填IMAGE_ICON)。第四个cxDesired和第五个参数CyDesired,指定要加载的图片的宽高(可以放大光标,或者缩小),如果加载的是位图的话,则两个参数必须为0,第六个参数fuLoad表示以何种方式加载文件,这里我们是从磁盘加载文件,所以填LR_LOADFROMFILE;

好了,假设e盘下有一个c.cur和i.ico文件。例子:设置窗口图标和光标,还有背景色

1 #include "stdafx.h" //这个头文件是编译器自动生成的,不是空工程,都会有,

2//如果是直接建C++源文件,包含这个头文件,会出错

3

4 #include

5 #include

6 LRESULT CALLBACK WinSunProc(

7 HWND hwnd, // handle to window

8 UINT uMsg, // message identifier

9 WPARAM wParam, // first message parameter

10 LPARAM lParam // second message parameter

11 ); //窗口过程函数声明

12int WINAPI WinMain(

13 HINSTANCE hInstance, // handle to current instance

14 HINSTANCE hPrevInstance, // handle to previous instance

15 LPSTR lpCmdLine, // command line

16int nCmdShow // show state

17 )

18 {

19//设计一个窗口类

20 WNDCLASS wndcls;

21 wndcls.cbClsExtra=0;

22 wndcls.cbWndExtra=0;

23 wndcls.hbrBackground=CreateSolidBrush(RGB(12,172,59)); //画刷

24 wndcls.hCursor=(HCURSOR)LoadImage(NULL,"e:\\c.cur",IMAGE_CURSOR,24,24,LR_LOADFROMFILE); //加载光标

25 wndcls.hIcon=(HICON)LoadImage(NULL,"e:\\i.ico",IMAGE_ICON,48,48,LR_LOADFROMFILE); //加载图标

26 wndcls.hInstance=hInstance; //应用程序实例句柄由WinMain函数传进来

27 wndcls.lpfnWndProc=WinSunProc; //定义窗口处理函数

28 wndcls.lpszClassName="windowclass";

29 wndcls.lpszMenuName=NULL;

30 wndcls.style=CS_HREDRAW | CS_VREDRAW;

31 RegisterClass(&wndcls);

32

33//创建窗口,定义一个变量用来保存成功创建窗口后返回的句柄

34 HWND hwnd;

35 hwnd=CreateWindow("windowclass","first window",

36 WS_OVERLAPPEDWINDOW,0,0,600,400,NULL,NULL,hInstance,NULL);

37//显示及刷新窗口

38 ShowWindow(hwnd,SW_SHOWNORMAL);

39 UpdateWindow(hwnd);

40//定义消息结构体,开始消息循环

41 MSG msg;

42while(GetMessage(&msg,NULL,0,0))

43 {

44 TranslateMessage(&msg);

45 DispatchMessage(&msg);

46 }

47return msg.wParam;

48 }

1//编写窗口过程函数

2 LRESULT CALLBACK WinSunProc(

3 HWND hwnd, // handle to window

4 UINT uMsg, // message identifier

5 WPARAM wParam, // first message parameter

6 LPARAM lParam // second message parameter

7 )

8 {

9switch(uMsg)

10 {

11case WM_CHAR: //字符消息

12char szChar[20];

13 sprintf(szChar,"char code is %c",wParam);

14 MessageBox(hwnd,szChar,"char",0);

15break;

16case WM_LBUTTONDOWN: //鼠标左键按下消息

17 MessageBox(hwnd,"mouse clicked","message",0);

BP神经网络实验——【机器学习与算法分析 精品资源池】

实验算法BP神经网络实验 【实验名称】 BP神经网络实验 【实验要求】 掌握BP神经网络模型应用过程,根据模型要求进行数据预处理,建模,评价与应用; 【背景描述】 神经网络:是一种应用类似于大脑神经突触联接的结构进行信息处理的数学模型。BP神经网络是一种按照误差逆向传播算法训练的多层前馈神经网络,是目前应用最广泛的神经网络。其基本组成单元是感知器神经元。 【知识准备】 了解BP神经网络模型的使用场景,数据标准。掌握Python/TensorFlow数据处理一般方法。了解keras神经网络模型搭建,训练以及应用方法 【实验设备】 Windows或Linux操作系统的计算机。部署TensorFlow,Python。本实验提供centos6.8环境。 【实验说明】 采用UCI机器学习库中的wine数据集作为算法数据,把数据集随机划分为训练集和测试集,分别对模型进行训练和测试。 【实验环境】 Pyrhon3.X,实验在命令行python中进行,或者把代码写在py脚本,由于本次为实验,以学习模型为主,所以在命令行中逐步执行代码,以便更加清晰地了解整个建模流程。 【实验步骤】 第一步:启动python: 1

命令行中键入python。 第二步:导入用到的包,并读取数据: (1).导入所需第三方包 import pandas as pd import numpy as np from keras.models import Sequential from https://www.doczj.com/doc/5b18909176.html,yers import Dense import keras (2).导入数据源,数据源地址:/opt/algorithm/BPNet/wine.txt df_wine = pd.read_csv("/opt/algorithm/BPNet/wine.txt", header=None).sample(frac=1) (3).查看数据 df_wine.head() 1

数据挖掘常用资源及工具

资源Github,kaggle Python工具库:Numpy,Pandas,Matplotlib,Scikit-Learn,tensorflow Numpy支持大量维度数组与矩阵运算,也针对数组提供大量的数学函数库 Numpy : 1.aaa = Numpy.genfromtxt(“文件路径”,delimiter = “,”,dtype = str)delimiter以指定字符分割,dtype 指定类型该函数能读取文件所以内容 aaa.dtype 返回aaa的类型 2.aaa = numpy.array([5,6,7,8]) 创建一个一维数组里面的东西都是同一个类型的 bbb = numpy.array([[1,2,3,4,5],[6,7,8,9,0],[11,22,33,44,55]]) 创建一个二维数组aaa.shape 返回数组的维度print(bbb[:,2]) 输出第二列 3.bbb = aaa.astype(int) 类型转换 4.aaa.min() 返回最小值 5.常见函数 aaa = numpy.arange(20) bbb = aaa.reshape(4,5)

numpy.arange(20) 生成0到19 aaa.reshape(4,5) 把数组转换成矩阵aaa.reshape(4,-1)自动计算列用-1 aaa.ravel()把矩阵转化成数组 bbb.ndim 返回bbb的维度 bbb.size 返回里面有多少元素 aaa = numpy.zeros((5,5)) 初始化一个全为0 的矩阵需要传进一个元组的格式默认是float aaa = numpy.ones((3,3,3),dtype = numpy.int) 需要指定dtype 为numpy.int aaa = np 随机函数aaa = numpy.random.random((3,3)) 生成三行三列 linspace 等差数列创建函数linspace(起始值,终止值,数量) 矩阵乘法: aaa = numpy.array([[1,2],[3,4]]) bbb = numpy.array([[5,6],[7,8]]) print(aaa*bbb) *是对应位置相乘 print(aaa.dot(bbb)) .dot是矩阵乘法行乘以列 print(numpy.dot(aaa,bbb)) 同上 6.矩阵常见操作

题库深度学习面试题型介绍及解析--第7期

1.简述激活函数的作用 使用激活函数的目的是为了向网络中加入非线性因素;加强网络的表示能力,解决线性模型无法解决的问题 2.那为什么要使用非线性激活函数? 为什么加入非线性因素能够加强网络的表示能力?——神经网络的万能近似定理 ?神经网络的万能近似定理认为主要神经网络具有至少一个非线性隐藏层,那么只要给予网络足够数量的隐藏单元,它就可以以任意的精度来近似任何从一个有限维空间到另一个有限维空间的函数。 ?如果不使用非线性激活函数,那么每一层输出都是上层输入的线性组合;此时无论网络有多少层,其整体也将是线性的,这会导致失去万能近似的性质 ?但仅部分层是纯线性是可以接受的,这有助于减少网络中的参数。3.如何解决训练样本少的问题? 1.利用预训练模型进行迁移微调(fine-tuning),预训练模型通常在特征上拥有很好的语义表达。此时,只需将模型在小数据集上进行微调就能取得不错的效果。CV 有 ImageNet,NLP 有 BERT 等。 2.数据集进行下采样操作,使得符合数据同分布。

3.数据集增强、正则或者半监督学习等方式来解决小样本数据集的训练问题。 4.如何提升模型的稳定性? 1.正则化(L2, L1, dropout):模型方差大,很可能来自于过拟合。正则化能有效的降低模型的复杂度,增加对更多分布的适应性。 2.前停止训练:提前停止是指模型在验证集上取得不错的性能时停止训练。这种方式本质和正则化是一个道理,能减少方差的同时增加的偏差。目的为了平衡训练集和未知数据之间在模型的表现差异。 3.扩充训练集:正则化通过控制模型复杂度,来增加更多样本的适应性。 4.特征选择:过高的特征维度会使模型过拟合,减少特征维度和正则一样可能会处理好方差问题,但是同时会增大偏差。 5.你有哪些改善模型的思路? 1.数据角度 增强数据集。无论是有监督还是无监督学习,数据永远是最重要的驱动力。更多的类型数据对良好的模型能带来更好的稳定性和对未知数据的可预见性。对模型来说,“看到过的总比没看到的更具有判别的信心”。 2.模型角度

人工智能实践:Tensorflow笔记 北京大学 7 第七讲卷积网络基础 (7.3.1) 助教的Tenso

Tensorflow笔记:第七讲 卷积神经网络 本节目标:学会使用CNN实现对手写数字的识别。 7.1 √全连接NN:每个神经元与前后相邻层的每一个神经元都有连接关系,输入是特征,输出为预测的结果。 参数个数:∑(前层×后层+后层) 一张分辨率仅仅是28x28的黑白图像,就有近40万个待优化的参数。现实生活中高分辨率的彩色图像,像素点更多,且为红绿蓝三通道信息。 待优化的参数过多,容易导致模型过拟合。为避免这种现象,实际应用中一般不会将原始图片直接喂入全连接网络。 √在实际应用中,会先对原始图像进行特征提取,把提取到的特征喂给全连接网络,再让全连接网络计算出分类评估值。

例:先将此图进行多次特征提取,再把提取后的计算机可读特征喂给全连接网络。 √卷积Convolutional 卷积是一种有效提取图片特征的方法。一般用一个正方形卷积核,遍历图片上的每一个像素点。图片与卷积核重合区域内相对应的每一个像素值乘卷积核内相对应点的权重,然后求和,再加上偏置后,最后得到输出图片中的一个像素值。 例:上面是5x5x1的灰度图片,1表示单通道,5x5表示分辨率,共有5行5列个灰度值。若用一个3x3x1的卷积核对此5x5x1的灰度图片进行卷积,偏置项

b=1,则求卷积的计算是:(-1)x1+0x0+1x2+(-1)x5+0x4+1x2+(-1)x3+0x4+1x5+1=1(注意不要忘记加偏置1)。 输出图片边长=(输入图片边长–卷积核长+1)/步长,此图为:(5 – 3 + 1)/ 1 = 3,输出图片是3x3的分辨率,用了1个卷积核,输出深度是1,最后输出的是3x3x1的图片。 √全零填充Padding 有时会在输入图片周围进行全零填充,这样可以保证输出图片的尺寸和输入图片一致。 例:在前面5x5x1的图片周围进行全零填充,可使输出图片仍保持5x5x1的维度。这个全零填充的过程叫做padding。 输出数据体的尺寸=(W?F+2P)/S+1 W:输入数据体尺寸,F:卷积层中神经元感知域,S:步长,P:零填充的数量。 例:输入是7×7,滤波器是3×3,步长为1,填充为0,那么就能得到一个5×5的输出。如果步长为2,输出就是3×3。 如果输入量是32x32x3,核是5x5x3,不用全零填充,输出是(32-5+1)/1=28,如果要让输出量保持在32x32x3,可以对该层加一个大小为2的零填充。可以根据需求计算出需要填充几层零。32=(32-5+2P)/1 +1,计算出P=2,即需填充2

人工智能实践:Tensorflow笔记 北京大学 4 第四讲神经网络优化 (4.6.1) 助教的Tenso

Tensorflow笔记:第四讲 神经网络优化 4.1 √神经元模型:用数学公式表示为:f(∑i x i w i+b),f为激活函数。神经网络是以神经元为基本单元构成的。 √激活函数:引入非线性激活因素,提高模型的表达力。 常用的激活函数有relu、sigmoid、tanh等。 ①激活函数relu: 在Tensorflow中,用tf.nn.relu()表示 r elu()数学表达式 relu()数学图形 ②激活函数sigmoid:在Tensorflow中,用tf.nn.sigmoid()表示 sigmoid ()数学表达式 sigmoid()数学图形 ③激活函数tanh:在Tensorflow中,用tf.nn.tanh()表示 tanh()数学表达式 tanh()数学图形 √神经网络的复杂度:可用神经网络的层数和神经网络中待优化参数个数表示 √神经网路的层数:一般不计入输入层,层数 = n个隐藏层 + 1个输出层

√神经网路待优化的参数:神经网络中所有参数w 的个数 + 所有参数b 的个数 例如: 输入层 隐藏层 输出层 在该神经网络中,包含1个输入层、1个隐藏层和1个输出层,该神经网络的层数为2层。 在该神经网络中,参数的个数是所有参数w 的个数加上所有参数b 的总数,第一层参数用三行四列的二阶张量表示(即12个线上的权重w )再加上4个偏置b ;第二层参数是四行两列的二阶张量()即8个线上的权重w )再加上2个偏置b 。总参数 = 3*4+4 + 4*2+2 = 26。 √损失函数(loss ):用来表示预测值(y )与已知答案(y_)的差距。在训练神经网络时,通过不断改变神经网络中所有参数,使损失函数不断减小,从而训练出更高准确率的神经网络模型。 √常用的损失函数有均方误差、自定义和交叉熵等。 √均方误差mse :n 个样本的预测值y 与已知答案y_之差的平方和,再求平均值。 MSE(y_, y) = ?i=1n (y?y_) 2n 在Tensorflow 中用loss_mse = tf.reduce_mean(tf.square(y_ - y)) 例如: 预测酸奶日销量y ,x1和x2是影响日销量的两个因素。 应提前采集的数据有:一段时间内,每日的x1因素、x2因素和销量y_。采集的数据尽量多。 在本例中用销量预测产量,最优的产量应该等于销量。由于目前没有数据集,所以拟造了一套数据集。利用Tensorflow 中函数随机生成 x1、 x2,制造标准答案y_ = x1 + x2,为了更真实,求和后还加了正负0.05的随机噪声。 我们把这套自制的数据集喂入神经网络,构建一个一层的神经网络,拟合预测酸奶日销量的函数。

人工智能tensorflow实验报告

一、软件下载 为了更好的达到预期的效果,本次tensorflow开源框架实验在Linux环境下进行,所需的软件及相关下载信息如下: 1.CentOS 软件介绍: CentOS 是一个基于Red Hat Linux 提供的可自由使用源代码的企业级Linux 发行版本。每个版本的CentOS都会获得十年的支持(通过安全更新方式)。新版本的CentOS 大约每两年发行一次,而每个版本的CentOS 会定期(大概每六个月)更新一次,以便支持新的硬件。这样,建立一个安全、低维护、稳定、高预测性、高重复性的Linux 环境。CentOS是Community Enterprise Operating System的缩写。CentOS 是RHEL(Red Hat Enterprise Linux)源代码再编译的产物,而且在RHEL的基础上修正了不少已知的Bug ,相对于其他Linux 发行版,其稳定性值得信赖。 软件下载: 本次实验所用的CentOS版本为CentOS7,可在CentOS官网上直接下载DVD ISO镜像文件。 下载链接: https://www.doczj.com/doc/5b18909176.html,/centos/7/isos/x86_64/CentOS-7-x86_64-DVD-1611.i so. 2.Tensorflow 软件介绍: TensorFlow是谷歌基于DistBelief进行研发的第二代人工智能学习系统,其命名来源于本身的运行原理。Tensor(张量)意味着N维数组,Flow(流)意味着基于数据流图的计算,TensorFlow为张量从流图的一端流动到另一端计算过程。TensorFlow是将复杂的数据结构传输至人工智能神经网中进行分析和处理过程的系统。TensorFlow可被用于语音识别或图像识别等多项机器深度学习领域,对2011年开发的深度学习基础架构DistBelief进行了各方面的改进,它可在小到一部智能手机、大到数千台数据中心服务器的各种设备上运行。TensorFlow将完全开源,任何人都可以用。

TensorFlow编程指南 嵌入

嵌入 本文档介绍了嵌入这一概念,并且举了一个简单的例子来说明如何在TensorFlow 中训练嵌入,此外还说明了如何使用TensorBoard Embedding Projector 查看嵌入(真实示例)。前两部分适合机器学习或TensorFlow 新手,而Embedding Projector 指南适合各个层次的用户。 有关这些概念的另一个教程,请参阅《机器学习速成课程》的“嵌入”部分。 嵌入是从离散对象(例如字词)到实数向量的映射。例如,英语字词的300 维嵌入可能包括: blue: (0.01359, 0.00075997, 0.24608, ..., -0.2524, 1.0048, 0.06259) blues: (0.01396, 0.11887, -0.48963, ..., 0.033483, -0.10007, 0.1158) orange: (-0.24776, -0.12359, 0.20986, ..., 0.079717, 0.23865, -0.014213) oranges: (-0.35609, 0.21854, 0.080944, ..., -0.35413, 0.38511, -0.070976) 这些向量中的各个维度通常没有固有含义,机器学习所利用的是向量的位置和相互之间的距离这些整体模式。 嵌入对于机器学习的输入非常重要。分类器(更笼统地说是神经网络)适用于实数向量。它们训练密集向量时效果最佳,其中所有值都有助于定义对象。不过,机器学习的很多重要输入(例如文本的字词)没有自然的向量表示。嵌入函数是将此类离散输入对象转换为有用连续向量的标准和有效方法。 嵌入作为机器学习的输出也很有价值。由于嵌入将对象映射到向量,因此应用可以将向量空间中的相似性(例如欧几里德距离或向量之间的角度)用作一项强大而灵活的标准来衡量对象相似性。一个常见用途是找到最近的邻点。例如,下面是采用与上述相同的字词嵌入后,每个字词的三个最近邻点和相应角度: blue: (red, 47.6°), (yellow, 51.9°), (purple, 52.4°) blues: (jazz, 53.3°), (folk, 59.1°), (bluegrass, 60.6°) orange: (yellow, 53.5°), (colored, 58.0°), (bright, 59.9°) oranges: (apples, 45.3°), (lemons, 48.3°), (mangoes, 50.4°) 这样应用就会知道,在某种程度上,苹果和橙子(相距45.3°)的相似度高于柠檬和橙子(相距48.3°)。

Tensorflow入门学习1

第一章基础知识 Tensorflow交流qq千人群:328216239 1.1Tensors 目前在TensorFlow中的数据结构是tensor。一个tensor可以是任意维度的张量。一个tensor的等级就是它维度的数量。下面是一些tensor的例子: 3#a rank0tensor;a scalar with shape[] [1.,2.,3.]#a rank1tensor;a vector with shape[3] [[1.,2.,3.],[4.,5.,6.]]#a rank2tensor;a matrix with shape[2,3] [[[1.,2.,3.]],[[7.,8.,9.]]]#a rank3tensor with shape[2,1,3] 1.2The Computational Graph 你可以把Tensorflow的核心程序看成由2部分组成: 1.2.1建立计算图 1.2.2运行计算图 计算图是将一系列tensorflow的操作放到图的节点上。让我们建立一个简单的计算图。每个节点将0个或者更多的tensor作为输入,然后输出一个tensor。有一种节点的类型是常量。就像所有tensorflow中的常量一样,它不需要输入,输出一个内部储存的值。我们可以按照如下方法创造2个浮点类型的tensors节点node1和node2: node1=tf.constant(3.0,dtype=tf.float32) node2=tf.constant(4.0)#also tf.float32implicitly print(node1,node2) 最后的打印效果如下: Tensor("Const:0",shape=(),dtype=float32)Tensor("Const_1:0",shape=(), dtype=float32) 我们注意到这并没有像我们预期的意义输出值3.0和4.0。相反,他们输出了只有在evaluate的时候才会生成3.0和4.0的节点。为了evaluate这些节点,我

损失函数 Losses - Keras 中文文档

Docs ? 损失函数 Losses 损失函数的使用 损失函数(或称目标函数、优化评分函数)是编译模型时所需的两个参数之一: https://www.doczj.com/doc/5b18909176.html,pile(loss='mean_squared_error', optimizer='sgd') from keras import losses https://www.doczj.com/doc/5b18909176.html,pile(loss=losses.mean_squared_error, optimizer='sgd') 你可以传递一个现有的损失函数名,或者一个 T ensorFlow/Theano 符号函数。该符号函数为每个数据点返回一个标量,有以下两个参数: y_true: 真实标签。T ensorFlow/Theano 张量。 y_pred: 预测值。T ensorFlow/Theano 张量,其 shape 与 y_true 相同。 实际的优化目标是所有数据点的输出数组的平均值。 有关这些函数的几个例子,请查看losses source。 可用损失函数 mean_squared_error mean_squared_error(y_true, y_pred) mean_absolute_error mean_absolute_error(y_true, y_pred) mean_absolute_percentage_error mean_absolute_percentage_error(y_true, y_pred) mean_squared_logarithmic_error

mean_squared_logarithmic_error(y_true, y_pred) squared_hinge squared_hinge(y_true, y_pred) hinge hinge(y_true, y_pred) categorical_hinge categorical_hinge(y_true, y_pred) logcosh logcosh(y_true, y_pred) 预测误差的双曲余弦的对数。 对于小的x,log(cosh(x))近似等于(x ** 2) / 2。对于大的x,近似于abs(x) - log(2)。这表示 'logcosh' 与均方误差大致相同,但是不会受到偶尔疯狂的错误预测的强烈影响。 参数 y_true: 目标真实值的张量。 y_pred: 目标预测值的张量。 返回 每个样本都有一个标量损失的张量。 categorical_crossentropy categorical_crossentropy(y_true, y_pred)

GitHub上四个超棒的TensorFlow开源项目

GitHub上四个超棒的TensorFlow开源项目 TensorFlow是Google的开源深度学习库,你可以使用这个框架以及Python编程语言,构建大量基于机器学习的应用程序。而且还有很多人把TensorFlow构建的应用程序或者其他框架,开源发布到GitHub上。这次跟大家分享一些GitHub上令人惊奇的TensorFlow项目,你可以直接在你的应用中使用,或者根据自身所需进一步予以改进。TensorFlow简介如果你已经知道TensorFlow是什么,以及它是如何工作的,建议直接跳到下一节。如果你对使用Python学习TensorFlow感兴趣,网上也有相关的教程可以参考。这一节内容比较傲适合初学者。如前所述,TensorFlow是一个深度学习库,使用这一框架,可以用来构建和测试深度神经网络。深度学习让我们能够以极高的准确性构建复杂的应用程序。图像、视频、文本、音频等领域的问题,都可以通过深度学习解决。TensorFlow可以用于实现前述所有应用。2015年11月9日,Google 正式发布并开源TensorFlow,目前官方正式版本为TensorFlow 1.2。下面这段视频,是当年TensorFlow刚发布时,Google发布的一个官方介绍短片,Jeff Dean等出镜讲述。TensorFlow很快成为GitHub上用户最多的深度学习框架。这个库之所以如此流行,是因为开发人员可以轻

松的用其来搭建、测试和部署机器学习应用。 TensorFlow使用数据流图,上面是一个TensorFlow的示意图。我们不用关心这张图具体代表什么,但你需要知道,其中的椭圆和正方形代表节点,节点就是一些数学函数,你可以将节点分组形成各种数学计算,并得到输出。箭头代表流动到各个节点的数据。所以TensorFlow也被成为数据 流库。 四个TensorFlow开源项目:项目一:Neural Style这是最酷的TensorFlow GitHub项目之一。神经风格是将一张照片的风格迁移到另一张照片上的过程,同时保留相关的特张。简单的来说,通过这个项目,你可以使用TensorFlow创建 自己的Prisma应用程序。如上图所示,把梵高画作的风格,迁移到一张狮子的照片上,就得到一个星空风格的狮子照片,这就是所谓的风格迁移。下面再展示一组这个项目的风格迁移,能把这张狮子的照片,变成哪些非常有趣的效果。这个项目在风格迁移的同时,还能对图像进行语义分割。进而实现对内容的前景、背景进行不同的风格迁移处理。这个过程如下图所示:另外这个算法还能适用于视频处理。上述图片处理使用的软硬件如下:CPU: Intel Core i7-6800K@3.4GHz×12GPU: NVIDIA GeForce GTX 1080/PCIe/SSE2 OS: Linux Ubuntu 16.04.1 LTS 64-bit CUDA: 8.0 python: 2.7.12 tensorflow: 0.10.0rc

【IT专家】tensorflow 保存与使用训练好的模型

本文由我司收集整编,推荐下载,如有疑问,请与我司联系 tensorflow 保存与使用训练好的模型 2018/05/23 8 使用tensorflow训练模型后,把模型的所有参数保存下来,后面,直接使用就好。 ?首先,创建一个tf.train.Saver对象 ?保存所有参数:Saver 对象的save() 函数 ?使用已保存的模型:Saver 对象的restore() 函数 tensorflow API: ? ?save( sess, save_path, global_step=None, latest_filename=None, meta_graph_suffix=‘meta’, write_meta_graph=True, write_state=True, strip_default_attrs=False ) ?saver.save(sess, ‘my-model’, global_step=0) == filename: ‘my-model-0 saver.save(sess, ‘my-model’, global_step=1000) == filename: ‘my-model-1000’ (第一个参数,是训练模型时的session;第二个参数,是模型保存成的文件名;第三个参数 可以省略,它可以给文件名加入一个step的信息) ? ?restore(sess, save_path ) (第一个参数,是训练模型时的session;第二个参数,是模型保存成的文件) ?代码例子1: import tensorflow as tfimport numpy as npx = tf.placeholder(tf.float32, shape=[None, 1])y = 4 * x + 4w = tf.Variable(tf.random_normal([1], -1, 1))b = tf.Variable(tf.zeros([1]))y_predict = w * x + bloss = tf.reduce_mean(tf.square(y - y_predict))optimizer = tf.train.GradientDescentOptimizer(0.5)train = optimizer.minimize(loss)isTrain = Falsetrain_steps = 100checkpoint_steps = 50checkpoint_dir = ‘myModelG’saver = tf.train.Saver() # defaults to saving all variables - in this case w and bx_data = np.reshape(np.random.rand(10).astype(np.float32), (10,

tensorFlow使用心得

tensorFlow使用心得(使用中的一些坑) 作为tensorFlow平台使用的新手,笔者在调试过程中遇到了很多坑,这里把一些作为教训贡献出来供大家参考。 1.tensorFlow数组的维度问题 由于tensorFlow的计算图是静态的,所以需要一开始进行计算题的定义,由于在定义神经网路的前向传播过程中,涉及到数组之间的运算,所以很容易出现一些隐性的错误(语法没错,但是结果不对),特别是涉及到一维数组的运算。 在神经网路的教材中,一般对某个层的权重定义的形式是W j,k 其中j是输出层的个数,k是输入层的格式,这样在前向传播模型中,输出层的激活值表示为 =W j,k?x+b Wx plus b 这里的x是表示输入的激活值,shape=(k,1),b是输出神经元的阈值向量,shape=(j,1)。但是在很多tensorFlow的代码中,都习惯写成 =W k,j?x+b Wx plus b 这样在定义x和b的时候维度就会发生改变,如果此时不注意的话就会发生以下错误。 在tensorFlow里很多人在初始化权重和阈值的时候是按照如下方式写的

Weights = get_weights_variable([in_size, out_size],regularizer) biases = tf.Variable(tf.random_normal([out_size], stddev=1)) Wx_plus_b=tf.matmul(input_tensor,Weights)+biases 在这里biases是一个一维向量,其形状是shape=(out_size, ),由于input_tensor是一个shape=(1,in_size)的二维数组,所以Wx的结果tf.matmul(input_tensor,Weights)的shape=(1,out_size)。有一biase是一维数组,而tf.matmul(input_tensor,Weights)的shape=(1,out_size),则最终的Wx_plus_b的shape=(1,out_size)。如果你还是习惯用神经网络基础理论里提到的模式进行编程 Weights = get_weights_variable([out_size, in_size],regularizer) biases = tf.Variable(tf.random_normal([out_size,1], stddev=1)) Wx_plus_b=tf.matmul(input_tensor,Weights)+biases 注意,这里的biases是一个二维数组,其形状为shape=(out_size,1),此时input_tensor的shape=(in_size,1),最终得到的Wx_plus_b的shape=(out_size,1)。如果一切按照这个形式来没问题,但是如果在第二种情形下,对biases初始化时,还是沿用第一种编程方式里提到的手段 biases = tf.Variable(tf.random_normal([out_size], stddev=1)) 这时,由于python的broadencast原则,因为 tf.matmul(input_tensor,Weights)是一个形状为shape=(out_size,1)的二维数组,而biases是shape=(out_size, )的一维数组,最后相加的结果是一个shape=(out_size,out_size)的二维数组,这样传到下一

用TensorFlow写个简单的神经网络

用TensorFlow写个简单的神经网络 这次就用TensorFlow写个神经网络,这个神经网络写的很简单,就三种层,输入层--隐藏层----输出层; 首先导入我们要使用的包 # -*- coding: utf-8 -*-import tensorflow as tfimport matplotlib.pyplot as pltimport numpy as npimport matplotlibfrom sklearn import datasetsfrom matplotlib.font_manager import FontProperties 然后在设定一下我们画图的时候要显示中文的字体,因为Python自带的不支持中文的解释 #设置中文font = FontProperties(fname=r"c:\windows\fonts\simsun.ttc", size=14)zhfont1 = matplotlib.font_manager.FontProperties(fname=rc:\windows\fonts\simsun.ttc) 定义一个会话,因为图是必须在会话中启动的 #定义一个图会话sess=tf.Session() 这里我选用公开的数据莺尾花的数据集,这个数据集虽然都被大家玩烂了,不过这个是一个学习代码,就不计较那么多了; #莺尾花数据集iris=datasets.load_iris()x_vals=np.array([x[0:3] for x in iris.data])y_vals=np.array([x[3] for x in iris.data]) 这里设置一个随机种子,为了可以让大家把结果复现出来 #设置一个种子求结果seed=211tf.set_random_seed(seed)8np.random.seed(seed) 开始有模有样的划分数据集了,一个是训练集,一个是测试集,训练集占80%,测试集占20% #划分测试机和训练集train_indices=np.random.choice(len(x_vals),round(len(x_vals)*0.8),replace=True)test_indices= np.array(list(set(range(len(x_vals)))-set(train_indices)))x_vals_train=x_vals[train_indices]x_val s_test = x_vals[test_indices]y_vals_train = y_vals[train_indices]y_vals_test = y_vals[test_indices] 在这里我们在将特征进行一个归一化,也就是将数值型特征全部都转换为0-1之间的数值,

TensorFlow中文简介

这两天发现朋友圈被Google开源深度学习系统TensorFlow的新闻刷屏了。这当然是一个很好的消息,尤其对我们这种用机器学习来解决实际问题的工程师来说更是如此。但同时很多人并不清楚听起来神乎其神的“TensorFlow”到底是什么,有什么意义。 什么是深度学习? 在机器学习流行之前,都是基于规则的系统,因此做语音的需要了解语音学,做NLP的需要很多语言学知识,做深蓝需要很多国际象棋大师。 而到后来统计方法成为主流之后,领域知识就不再那么重要,但是我们还是需要一些领域知识或者经验来提取合适的feature(特征),feature的好坏往往决定了机器学习算法的成败。对于NLP来说,feature还相对比较好提取,因为语言本身就是高度的抽象;而对于Speech或者Image来说,我们人类自己也很难描述我们是怎么提取feature的。比如我们识别一只猫,我们隐隐约约觉得猫有两个眼睛一个鼻子有个长尾巴,而且它们之间有一定的空间约束关系,比如两只眼睛到鼻子的距离可能差不多。但怎么用像素来定义”眼睛“呢?如果仔细想一下就会发现很难。当然我们有很多特征提取的方法,比如提取边缘轮廓等等。 但是人类学习似乎不需要这么复杂,我们只要给几张猫的照片给人看,他就能学习到什么是猫。人似乎能自动“学习”出feature来,你给他看了几张猫的照片,然后问猫有什么特征,他可能会隐隐预约地告诉你猫有什么特征,甚至是猫特有的特征,这些特征豹子或者老虎没有。 深度学习为什么最近这么火,其中一个重要的原因就是不需要(太多)提取feature。 从机器学习的使用者来说,我们以前做的大部分事情是feature engineering,然后调一些参数,一般是为了防止过拟合。而有了深度学习之后,如果我们不需要实现一个CNN或者LSTM,那么我们似乎什么也不用干。(机器让工人失业,机器学习让搞机器学习的人失业!人工智能最终的目的是让人类失业?)

人工智能课程体系及项目实战

人工智能课程体系及项目实战1、机器学习课程大纲 第一课:Python基础与科学计算库numpy 1.Python语言基础

2.Python数据结构(列表,字典,元组) 3.科学计算库Numpy基础 4.Numpy数组操作 5.Numpy矩阵基本操作 6.Numpy矩阵初始化与创建 7.Numpy排序与索引 第二课:数据分析处理库与数据可视化库 1.Pandas数据读取与现实 2.Pandas样本数值计算与排序 3.Pandas数据预处理与透视表 4.Pandas自定义函数 5.Pandas核心数据结构Series详解 6.Pandas数据索引 7. Matplotlib绘制第一个折线图

8. Matplotlib条形图,直方图,四分图绘制 9. Matplotlib数据可视化分析 第三课:回归算法 1.机器学习要解决的任务 2.有监督与无监督问题 3.线性回归算法原理推导 4.实现简易回归算法 5.逻辑回归算法原题 6.实战梯度下降算法 第四课:案例实战信用卡欺诈检测 1.数据与算法简介 2.样本不平衡问题解决思路 3.下采样解决方案 4.正则化参数选择

5.逻辑回归建模 6.过采样与SMOTE算法 第五课:决策树与随机森林 1.熵原理,信息增益 2.决策树构造原理推导 3.ID3,C 4.5算法 4.决策树剪枝策略 5.随机森林算法原理 6.基于随机森林的特征重要性选择 第六课:Kaggle机器学习案例实战 1.泰坦尼克船员获救预测 2.使用pandas库进行数据读取与缺失值预处理 3.使用scikit-learn库对比回归模型与随机森林模型 4.GBDT构造原理

tensorflow训练好的模型怎么调用

tensorflow训练好的模型怎么调用? 训练完一个模型后,为了以后重复使用,通常我们需要对模型的结果进行保存。如果用Tensorflow去实现神经网络,所要保存的就是神经网络中的各项权重值。建议可以使用Saver类保存和加载模型的结果。 1、使用tf.train.Saver.save()方法保存模型 tf.train.Saver.save(sess, save_path, global_step=None, latest_filename=None, meta_graph_suffix='meta', write_meta_graph=True, write_state=True) ?sess: 用于保存变量操作的会话。 ?save_path: String类型,用于指定训练结果的保存路径。 ?global_step: 如果提供的话,这个数字会添加到save_path后面,用于构建checkpoint文件。这个参数有助于我们区分不同训练阶段的结果。 2、使用tf.train.Saver.restore方法价值模型 tf.train.Saver.restore(sess, save_path) ?sess: 用于加载变量操作的会话。 ?save_path: 同保存模型是用到的的save_path参数。

下面通过一个代码演示这两个函数的使用方法importtensorflow as tf importnumpy as np x = tf.placeholder(tf.float32, shape=[None, 1]) y = 4 * x + 4 w = tf.Variable(tf.random_normal([1], -1, 1)) b = tf.Variable(tf.zeros([1])) y_predict = w * x + b loss = tf.reduce_mean(tf.square(y - y_predict)) optimizer = tf.train.GradientDescentOptimizer(0.5) train = optimizer.minimize(loss)

相关主题
文本预览
相关文档 最新文档