中午听着音乐,趴着休息,听到一首《晴天》。
怀念吉他声了。
现在就是永远
学习一下用linux交叉编译Windows项目,ffmpeg具体后续如何使用暂时不管,首先需要在linux下正常编译通过。
项目地址:https://github.com/rdp/ffmpeg-windows-build-helpers
为了查找方便,整理一下Ubuntu下的环境配置、包管理和相关工具用法。
接着前一阵子记下的上一篇文章写。
下列项目的具体地址可以在调研记录里找到。
首先非常感人的是,Bundler终于在Ubuntu14.04下,通过编译源码跑通了。如上一篇文章所述,坑确实出在Sift文件上。
现在只需要在一个有若干图像的文件夹下执行RunBundler.sh
即可。
至于查看效果,可以非常方便地使用Meshlab
。
Shadowsocks在Windows、Mac、Android、iOS下都有对应的图形化程序或者App,完全不需要配置,不知Linux有什么毒..居然挂个梯子都有坑
尝试过:Shadowsocks-qt5(图形界面) + Proxy SwitchyOmega,一段时间可以用,后来就再也上不了。
后改用shadowsocks命令行工具 + json文件 + Proxy SwitchySharp,成功。
部分参考:https://zhjpaul.github.io/2017/04/22/how-to-use-shadowsocks-in-ubuntu.html
Mac OS下的包管理通常会使用Homebrew,通常一行命令就能解决问题,包括所有的依赖库也能一并配好。为了使用某些开源项目而转战linux后,在配环境方面又是大问题。好在Linux自带的apt-get和相关的包管理指令能够很好地解决这类问题,甚至比Homebrew的使用更简便。正好自学的过程中找到了一份不错的入门级教程,顺带记录一下,以后方便找。
教程链接:https://itsfoss.com/apt-get-linux-guide/
两个核心工具:apt-get
和apt-cache
,前者主要用于安装、更新和清理包,后者用于寻找新的包。
功能:将多个Microsoft Kinect 2设备分别连接到多个客户端(个人电脑),服务器(某一台电脑端)将客户端捕捉到的这些多视角RGB-D数据重建成三维点云,并在Unity中实时显示,还能够通过Hololens设备实时观察。
使用设备:Windows 10系统的台式机*1(将其同时作为客户端和服务器),Kinect*1。
背景:第一次接触Kinect..
结果:全程按照项目文档顺利实现。
mac分区-U盘制作启动盘-装Deepin(Linux系统)-Linux无线网卡bug-返回mac-尝试换个linux系统-合并mac分区-合并分区出bug(linux的空间不见了)-尝试重启-重启gg
想了想原因,应该是没有格式化分区的情况下强行合区,导致两个分区的头部在硬盘中重合,linux和mac的启动第一条语句互相冲突。因此不但60G空间找不到了,还导致存储器中的数据一起没了..如果再来一次肯定要先格式化再合区(然而只是猜想,必然不想再试一次了)
但这暴露出mac的磁盘保护措施很弱…这么看的话,想毁掉一台mac的数据非常简单了:
给它分个区,再随便装个开源系统,再切回来合区,再重启,over。
千万别试,试之前备份好数据,以及若干官方售后维修费。
对多视图三维重建的理论方面有了初步认识之后,就可以开始尝试运行完整的三维重建系统管线了。
然而这个过程充满坎坷,到写下这个记录为止,依然没有找到合适的解决方案。按照能够想起来的过程整理一下(估计也没人会碰到这些问题了,碰到了解决起来应该也比我快吧orz