通过COM组件在Web上实现Kinect骨骼追踪、声控截屏保存的功能
前些天在淘宝上订购了Kinect,刚刚到货,对于这个新鲜的玩意儿,自己赶紧卸开包裹,插上PC机,先前已经装好了Kinect SDK(官方下载地址:http://research.microsoft.com/en-us/um/redmond/projects/kinectsdk/download.aspx)
希望自己的机子能够跑得动DEMO,最后送了一口气,正常运行:)。当然了,既然Kinect已经入手,自己打算也小小地练一下手,因为自己目前主要从事Web方面的开发,自然想到,如果能够在网页上能够运行Kinect该有多好啊!后来考虑了三种方案:
1)在Web应用程序上引用Kinect SDK的DLL(Microsoft.Research.Kinect.dll),可以正常引用,通过img标签或者页面输出图像流的方式显示Bitmap图像,当然你还需要定时刷新页面,当然这种方式的缺点可想而知,就是不够实时性。并且增加了服务器的负担。
2)通过Silverlight应用程序的方式,但是目前SL4/5均不支持Kinect的dll,这是由于Kinect是个.Net Framework的类库,非SL支持的客户端类库。另外,在非OOB的模式下,也SL目前不支持自定义的COM组件,希望微软团队将来能够让SL也支持Kinect。
3)通过ActiveX的COM组件技术,通过开发窗体组件,产生ActiveX插件,嵌套在IE浏览器中进行显示。
于是,我考虑了最简单的方式,通过ActiveX的技术在网页上对Kinect相关基本功能进行展示。
本文会分成三个部分来叙述:
一、ActiveX插件的实现;
二、Kinect基本功能的实现;
三、ActiveX的安装;
具体实现
第一部分 ActiveX插件的实现
1) 创建一个新的解决方案,叫做MyFirstKinect。
2)接着创建一个Windows窗体控件库,用于做ActiveX的插件,项目叫做MyFirstKinectControl
3)在MyFirstKinectControl项目的右键点击“属性”,选择“生成”项:
将”为COM互操作注册”勾上,然后关闭。
4)打开AssemblyInfo.cs:
将ComVisible设置为true,并将下面这行注释掉(这个很重要,切记!)
对应地,需要在自定义窗体控件上加上该Guid:
至此,一个基本的COM组件已经实现了,现在来看下该如何在浏览器上显示ActiveX插件。
5)打开Visual Studio的命令提示符:输入“oleview”,页面会打开一个“OLE/COM Object Viewer”应用程序:
由于我是使用C#创建的COM组件,于是在“.NET Category”寻找刚才创建的”MyFirstKinectControl”:
右键选择“Copy HTML<object> Tag to Clipboard”,得到:
6)然后我在自定义窗体控件上(SkeletalControl.cs),随便加入点东西上去,比如按钮、标签等等。
7)然后新创建一个Web应用程序的项目(WebApp),重新编译。将上面的代码复制到Html或相关页面中。
在IE正常状态下,发现插件无法正常显示。于是,把浏览器的安全级别调低:
继续运行:
就可以正常显示插件了。当然这种方式造成了浏览器使用上的危害性,所以不建议这样来使用。
8)如果想要在不调整浏览器安全级别的情况下,又能够在浏览器上正常显示插件,这样就必须调整一些代码:
[Guid("CB5BDC81-93C1-11CF-8F20-00805F2CD064"), InterfaceType(ComInterfaceType.InterfaceIsIUnknown)]
public interface IObjectSafety
{// methods void GetInterfacceSafyOptions(System.Int32 riid,out System.Int32 pdwSupportedOptions,out System.Int32 pdwEnabledOptions);void SetInterfaceSafetyOptions(System.Int32 riid,System.Int32 dwOptionsSetMask,System.Int32 dwEnabledOptions);
}
添加一个IObjectSafety的接口,并且Guid是固定的。
SkeletalControl继承这个接口:
[Guid("d678c286-b26f-4f72-ae22-2dcb1952851b")]
public partial class SkeletalControl : UserControl, IObjectSafety
{public SkeletalControl(){InitializeComponent();}#region IObjectSafety 成员public void GetInterfacceSafyOptions(Int32 riid, out Int32 pdwSupportedOptions, out Int32 pdwEnabledOptions){pdwSupportedOptions = 1;pdwEnabledOptions = 2;}public void SetInterfaceSafetyOptions(Int32 riid, Int32 dwOptionsSetMask, Int32 dwEnabledOptions){}#endregion
}
接着重新编译并运行Web程序,运行结果为:
这样,你就不需要调整浏览器的安全级别,就可以正常显示ActiveX插件了。
第二部分 Kinect的基本功能实现
从这一部分起,我将开始介绍Kinect如何实现一些基本功能:包括视频监控、骨骼追踪以及声控截屏的功能。
1)项目中引用以下的Dll:
其中Microsoft.Research.Kinect就是在电脑上装好Kinect SDK后可以引用的类库;
另外地,Coding4Fun.Kinect.WinForm是一个基于SDK的DLL的相关封装好的一些功能类库,网上开源地址为:http://c4fkinect.codeplex.com/;
Microsoft.Speech是一个微软提供的语音识别的基本类库,也包含相关的SDK,并且和Kinect进行绑定的相关类库,具体地址在Kinect SDK中的相关文档也有说明:
- Speech Platform Runtime (v10.2) x86. Even on x64 platforms the x86 needs to be used because the MSR Kinect SDK runtime is x86
http://www.microsoft.com/downloads/en/details.aspx?FamilyID=bb0f72cb-b86b-46d1-bf06-665895a313c7
- Speech Platform SDK (v10.2)
http://www.microsoft.com/downloads/en/details.aspx?FamilyID=1b1604d3-4f66-4241-9a21-90a294a5c9a4&displaylang=en
- Kinect English Language Pack: MSKinectLangPack_enUS.msi (available in the same location as the Kinect For Windows SDK)
2)在控件页面上创建三个PictureBox的控件:
三个图片框将分别用来存放:深度图视频、普通视频、以及骨骼追踪。
3)编写相关代码:
using Microsoft.Research.Kinect.Nui;
using Coding4Fun.Kinect.WinForm;Runtime nui;private void SkeletalControl_Load(object sender, EventArgs e)
{nui = new Runtime();try{nui.Initialize(RuntimeOptions.UseDepthAndPlayerIndex | RuntimeOptions.UseSkeletalTracking | RuntimeOptions.UseColor);}catch (InvalidOperationException){MessageBox.Show("Runtime initialization failed. Please make sure Kinect device is plugged in.");return;}try{nui.VideoStream.Open(ImageStreamType.Video, 2, ImageResolution.Resolution640x480, ImageType.Color);nui.DepthStream.Open(ImageStreamType.Depth, 2, ImageResolution.Resolution320x240, ImageType.DepthAndPlayerIndex);}catch (InvalidOperationException){MessageBox.Show("Failed to open stream. Please make sure to specify a supported image type and resolution.");return;}nui.DepthFrameReady += new EventHandler(nui_DepthFrameReady);nui.SkeletonFrameReady += new EventHandler(nui_SkeletonFrameReady);nui.VideoFrameReady += new EventHandler(nui_VideoFrameReady);
}
其中DepthFrameReady,VideoFrameReady,SkeletonFrameReady分别用来追踪深度图、普通视图、骨骼图所产生的事件。
void nui_DepthFrameReady(object sender, ImageFrameReadyEventArgs e){pictureBoxDepth.Image = e.ImageFrame.ToBitmap();}void nui_VideoFrameReady(object sender, ImageFrameReadyEventArgs e){pictureBoxVideo.Image = e.ImageFrame.ToBitmap();}void nui_SkeletonFrameReady(object sender, SkeletonFrameReadyEventArgs e){Graphics graphics = this.pictureBoxSkeleton.CreateGraphics();pictureBoxSkeleton.Refresh();SkeletonFrame skeletonFrame = e.SkeletonFrame;int iSkeleton = 0;foreach (SkeletonData data in skeletonFrame.Skeletons){if (SkeletonTrackingState.Tracked == data.TrackingState){// Draw bonesgraphics.DrawLines(pen, getBodySegment(data.Joints, JointID.HipCenter, JointID.Spine, JointID.ShoulderCenter, JointID.Head));graphics.DrawLines(pen, getBodySegment(data.Joints, JointID.ShoulderCenter, JointID.ShoulderLeft, JointID.ElbowLeft, JointID.WristLeft, JointID.HandLeft));graphics.DrawLines(pen, getBodySegment(data.Joints, JointID.ShoulderCenter, JointID.ShoulderRight, JointID.ElbowRight, JointID.WristRight, JointID.HandRight));graphics.DrawLines(pen, getBodySegment(data.Joints, JointID.HipCenter, JointID.HipLeft, JointID.KneeLeft, JointID.AnkleLeft, JointID.FootLeft));graphics.DrawLines(pen, getBodySegment(data.Joints, JointID.HipCenter, JointID.HipRight, JointID.KneeRight, JointID.AnkleRight, JointID.FootRight));}iSkeleton++;} // for each skeleton}private Point getDisplayPosition(Joint joint){float depthX, depthY;nui.SkeletonEngine.SkeletonToDepthImage(joint.Position, out depthX, out depthY);depthX = Math.Max(0, Math.Min(depthX * 320, 320)); //convert to 320, 240 spacedepthY = Math.Max(0, Math.Min(depthY * 240, 240)); //convert to 320, 240 spaceint colorX, colorY;ImageViewArea iv = new ImageViewArea();// only ImageResolution.Resolution640x480 is supported at this pointnui.NuiCamera.GetColorPixelCoordinatesFromDepthPixel(ImageResolution.Resolution640x480, iv, (int)depthX, (int)depthY, (short)0, out colorX, out colorY);// map back to skeleton.Width & skeleton.Heightreturn new Point((int)(this.pictureBoxSkeleton.Width * colorX / 640.0), (int)(this.pictureBoxSkeleton.Height * colorY / 480));}Point[] getBodySegment(Microsoft.Research.Kinect.Nui.JointsCollection joints, params JointID[] ids){Point[] points = new Point[ids.Length];for (int i = 0; i < ids.Length; ++i){points[i] = getDisplayPosition(joints[ids[i]]);}return points;}
其中,getBodySegment,getDisplayPosition方法将确定骨骼追踪中的20个骨骼点的具体位置。
4)接着编译并运行程序,查看Web页面,连上Kinect传感设备,运行结果为:
5)接着,来实现一些声控截屏功能:
using Microsoft.Research.Kinect.Audio;
using Microsoft.Speech.AudioFormat;
using Microsoft.Speech.Recognition;private const string RecognizerId = "SR_MS_en-US_Kinect_10.0";
private KinectAudioSource kinectSource;
private SpeechRecognitionEngine sre;// 声控截屏功能
RecognizerInfo ri = SpeechRecognitionEngine.InstalledRecognizers().Where(r => r.Id == RecognizerId).FirstOrDefault();
if (ri == null)
{MessageBox.Show("Could not find speech recognizer: {0}. Please refer to the sample requirements.", RecognizerId);return;
}sre = new SpeechRecognitionEngine(ri.Id);var colors = new Choices();
colors.Add("cut"); //添加cut的英文发音var gb = new GrammarBuilder();
gb.Culture = ri.Culture; //本地化处理
gb.Append(colors);var g = new Grammar(gb);sre.LoadGrammar(g);
sre.SpeechRecognized += SreSpeechRecognized; //发音匹配以后的后续处理事件
sre.SpeechHypothesized += SreSpeechHypothesized; //发音的英文识别事件
sre.SpeechRecognitionRejected += SreSpeechRecognitionRejected; //拒绝之后的后续处理事件var thread = new Thread(StartDMO);
thread.Start();private void StartDMO(){kinectSource = new KinectAudioSource();kinectSource.SystemMode = SystemMode.OptibeamArrayOnly;kinectSource.FeatureMode = true;kinectSource.AutomaticGainControl = false;kinectSource.MicArrayMode = MicArrayMode.MicArrayAdaptiveBeam;var kinectStream = kinectSource.Start();sre.SetInputToAudioStream(kinectStream, new SpeechAudioFormatInfo(EncodingFormat.Pcm, 16000, 16, 1,32000, 2, null));sre.RecognizeAsync(RecognizeMode.Multiple);}void SreSpeechRecognitionRejected(object sender, SpeechRecognitionRejectedEventArgs e){}void SreSpeechHypothesized(object sender, SpeechHypothesizedEventArgs e){}void SreSpeechRecognized(object sender, SpeechRecognizedEventArgs e){lblSpeech.Text = e.Result.Text;//屏幕截屏Bitmap bmp = new Bitmap(Screen.PrimaryScreen.Bounds.Width, Screen.PrimaryScreen.Bounds.Height);Graphics g = Graphics.FromImage(bmp);g.CopyFromScreen(0, 0, 0, 0, bmp.Size);g.Dispose();SaveFileDialog fileDialog = new SaveFileDialog();fileDialog.Filter = "JPG File(*.jpg)|*.jpg||";DialogResult result = fileDialog.ShowDialog();if (result == DialogResult.OK){bmp.Save(fileDialog.FileName, System.Drawing.Imaging.ImageFormat.Jpeg);}}
在代码中发现,var colors = new Choices(); colors.Add("cut"); //添加cut的英文发音 ,这样当你在传感器前发音“cut”就会进行相关事件的触发,当发音和英文库的单词语音识别向匹配时,将触发SreSpeechRecognized事件。
执行屏幕截图的相关操作。
(注:记得这里需要添加代码gb.Culture = ri.Culture; 如果没有这句代码,有可能导致sre.LoadGrammar(g); 语法加载失败!)
6. 运行结果:
我将刚才发的英文单词,通过文本的方式显示在页面中。
第三部分 ActiveX插件的安装
由于本文使用的是C#来开发ActiveX插件,所以当你需要安装插件的时候,需要使用regasm命令。那么开始编写脚本:
1)安装脚本:
@echo off echo 开始安装MyFirstKinectControl...... echo. set FrameworkPath=%SystemRoot%\Microsoft.NET\Framework\v4.0.30319 if exist "%FrameworkPath%\regasm.exe" goto :Start set FrameworkPath=%SystemRoot%\Microsoft.NET\Framework\v3.5 if exist "%FrameworkPath%\regasm.exe" goto :Start set FrameworkPath=%SystemRoot%\Microsoft.NET\Framework\v3.0 if exist "%FrameworkPath%\regasm.exe" goto :Start set FrameworkPath=%SystemRoot%\Microsoft.NET\Framework\v2.0.50727 if exist "%FrameworkPath%\regasm.exe" goto :Start set FrameworkPath=%SystemRoot%\Microsoft.NET\Framework\v1.1.4322 if exist "%FrameworkPath%\regasm.exe" goto :Startv set FrameworkPath=%SystemRoot%\Microsoft.NET\Framework\1.0.3705 if exist "%FrameworkPath%\regasm.exe" goto :Start:Start %FrameworkPath%\regasm.exe MyFirstKinectControl.dll /codebase MyFirstKinectControl.dllecho 安装完成! echo.pause
2)卸载脚本:
@echo off echo 开始卸载MyFirstKinectControl...... echo. set FrameworkPath=%SystemRoot%\Microsoft.NET\Framework\v4.0.30319 if exist "%FrameworkPath%\regasm.exe" goto :Start set FrameworkPath=%SystemRoot%\Microsoft.NET\Framework\v3.5 if exist "%FrameworkPath%\regasm.exe" goto :Start set FrameworkPath=%SystemRoot%\Microsoft.NET\Framework\v3.0 if exist "%FrameworkPath%\regasm.exe" goto :Start set FrameworkPath=%SystemRoot%\Microsoft.NET\Framework\v2.0.50727 if exist "%FrameworkPath%\regasm.exe" goto :Start set FrameworkPath=%SystemRoot%\Microsoft.NET\Framework\v1.1.4322 if exist "%FrameworkPath%\regasm.exe" goto :Startv set FrameworkPath=%SystemRoot%\Microsoft.NET\Framework\1.0.3705 if exist "%FrameworkPath%\regasm.exe" goto :Start:Start %FrameworkPath%\regasm.exe /u MyFirstKinectControl.dllecho 卸载完成! echo.pause
这样通过注册COM组件就可以实现Kinect的插件在浏览器上的展示。
附上本文的源代码:MyFirstKinect.rar 谢谢大家阅读!
转载于:https://www.cnblogs.com/liping13599168/archive/2011/06/28/2091710.html
通过COM组件在Web上实现Kinect骨骼追踪、声控截屏保存的功能相关推荐
- Kinect 骨骼追踪数据的处理方法
http://www.ituring.com.cn/article/196144 作者/ 吴国斌 博士,PMP,微软亚洲研究院学术合作经理.负责中国高校及科研机构Kinect for Windows学 ...
- android 平板怎么截图,iPad如何截图?截屏保存在什么地方?如何传到电脑上?
苹果iPad用户可能会遇到这样的问题iPad怎么截图?截图保存到哪里去了?如何把iPad的图片传到电脑上?其实这些问题都很简单.下面99安卓网小编就来介绍iPad截图的方法和截图保存的文件夹以及如何将 ...
- IOS之 上传App预览和截屏规范
App 预览规范 官方规范:https://help.apple.com/app-store-connect/?lang=zh-cn#/dev4e413fcb8 App 截屏规范 官方规范:https ...
- ]Kinect for Windows SDK开发入门(六):骨骼追踪基础 上
原文来自:http://www.cnblogs.com/yangecnu/archive/2012/04/06/KinectSDK_Skeleton_Tracking_Part1.html Kinec ...
- 直接在屏幕上,选取区域进行截屏分享到QQ、微信
在手机屏幕上,选择某个区域进行截屏. 1,借用网络上一张图片,说明每个点的位置,主要是左上角和右下角这两个点.中间那块浅蓝色的就是我们的目标区域了 /*** 将一个view保存成图片* @param ...
- ios 截屏上传需知
可以通过capture 进行截屏 不需要顶部状态栏 也就是电池电量 信号啥的那个栏位 直接截屏出来的 不然 上传之后会报错 之前 不过还是需要按照提示的尺寸上传 设备尺寸或平台 截屏尺寸 要求 截屏源 ...
- Chrome 浏览器如何完美实现滚动截图技巧,在电脑上实现长截屏
一.前言 我们平时在浏览网页时,想把碰到好的网页内容或者文章截屏保存,但是网页的长度常常会超出屏幕高度,一般的截屏功能只能截取显示在屏幕上的内容,那我们该如何方便快捷截取全部内容?今天就分享一个如何利 ...
- 使用Apache文件上传组件实现web页面文件上传
用servlet的upload功能实现文件上传很繁琐,代码量很大.可以用fileupload library组件实现文件上传,具体操作步骤如下: 1. 下载相关组件(commons-fileuploa ...
- html web上传文件原理,Web上传文件的原理及实现
本文为原创,如需转载,请注明作者和出处,谢谢! 现在有很多Web程序都有上传功能,实现上传功能的组件或框架也很多,如基于java的Commons FileUpload.还有Struts1.x和Stru ...
最新文章
- 硅谷产品实战-总结:14、如何用数据做出产品决定?
- mysql模糊查询不会区分大小写_MySQL模糊查询(like)时区分大小写
- tensorflow object detection API训练公开数据集Oxford-IIIT Pets Dataset
- html5图像调整大小,JavaScript调整HTML5画布中图像的大小
- s2sh删掉原本的s2sh project capabilities后重新添加它们
- 与高通公司合作的Cyanogen团队,Thunderbird等等
- pku 1094(拓扑排序,多次拓扑)
- 还在这样学 Python?怪不得白费力!
- 用python完成《商务与经济统计(第13版)》课后练习——第7章和第8章
- 单盘齿廓测量仪的设计
- 全年DDoS攻击分析|知道创宇云安全2018年度网络安全态势报告
- STM32上电启动代码详解(转自安富莱电子)
- vipkid(cocos creator)
- 对于“你需要Administrator权限才能删除该文件”情况的处理办法
- (CVPR 2022 阅读笔记)Residual Local Feature Network for Efficient Super-Resolution
- SpringBoot整合activiti5-业务表单
- 赋能区域产业,南京、成都双城AI开发者Meetup报名开启
- xgboost2 以及使用XGB.CV来进行调参
- Vue编译处理: warning Delete `␍` prettier/prettier
- android隐藏键盘方法,【工具类】Android 最有效的隐藏软键盘方法