这个List是在会议开始一周前,自己列出的若干感兴趣的主题,不过计划赶不上变化,有些爆满的场次还是略遗憾的错过了,在这里记录了一下5.11-13日的听会情况。并给出了一个粗略的的印象分,1至5分依次为 「很一般/还行/有干货/很棒棒/干货满满」。
当然,个人专业水平有限的前提下,这种评价也十分主观(如果主讲人大佬们偶然看到了请千万别介意orz),更多会议细节可以参见另一篇详细记录的文章。
现在就是永远
这个List是在会议开始一周前,自己列出的若干感兴趣的主题,不过计划赶不上变化,有些爆满的场次还是略遗憾的错过了,在这里记录了一下5.11-13日的听会情况。并给出了一个粗略的的印象分,1至5分依次为 「很一般/还行/有干货/很棒棒/干货满满」。
当然,个人专业水平有限的前提下,这种评价也十分主观(如果主讲人大佬们偶然看到了请千万别介意orz),更多会议细节可以参见另一篇详细记录的文章。
PC端运行效果差不多了之后,开始部署移动端。思路是将采集和渲染放在移动端App中,重建过程的计算放在服务器上,双方传输必要的数据。
学习一下用linux交叉编译Windows项目,ffmpeg具体后续如何使用暂时不管,首先需要在linux下正常编译通过。
项目地址:https://github.com/rdp/ffmpeg-windows-build-helpers
为了查找方便,整理一下Ubuntu下的环境配置、包管理和相关工具用法。
接着前一阵子记下的上一篇文章写。
下列项目的具体地址可以在调研记录里找到。
首先非常感人的是,Bundler终于在Ubuntu14.04下,通过编译源码跑通了。如上一篇文章所述,坑确实出在Sift文件上。
现在只需要在一个有若干图像的文件夹下执行RunBundler.sh
即可。
至于查看效果,可以非常方便地使用Meshlab
。
Shadowsocks在Windows、Mac、Android、iOS下都有对应的图形化程序或者App,完全不需要配置,不知Linux有什么毒..居然挂个梯子都有坑
尝试过:Shadowsocks-qt5(图形界面) + Proxy SwitchyOmega,一段时间可以用,后来就再也上不了。
后改用shadowsocks命令行工具 + json文件 + Proxy SwitchySharp,成功。
部分参考:https://zhjpaul.github.io/2017/04/22/how-to-use-shadowsocks-in-ubuntu.html
Mac OS下的包管理通常会使用Homebrew,通常一行命令就能解决问题,包括所有的依赖库也能一并配好。为了使用某些开源项目而转战linux后,在配环境方面又是大问题。好在Linux自带的apt-get和相关的包管理指令能够很好地解决这类问题,甚至比Homebrew的使用更简便。正好自学的过程中找到了一份不错的入门级教程,顺带记录一下,以后方便找。
教程链接:https://itsfoss.com/apt-get-linux-guide/
两个核心工具:apt-get
和apt-cache
,前者主要用于安装、更新和清理包,后者用于寻找新的包。
功能:将多个Microsoft Kinect 2设备分别连接到多个客户端(个人电脑),服务器(某一台电脑端)将客户端捕捉到的这些多视角RGB-D数据重建成三维点云,并在Unity中实时显示,还能够通过Hololens设备实时观察。
使用设备:Windows 10系统的台式机*1(将其同时作为客户端和服务器),Kinect*1。
背景:第一次接触Kinect..
结果:全程按照项目文档顺利实现。