能让很简单方法变热手机成像仪(能让很简单数据成像成像仪)「手机怎么变热成像仪」

一块小小的免费PCB,就能让手机秒变热成像仪。

还是贼拉高清的那种。

总开发成本也就100元左右。

这不得围观一下。

一、开源描述抛开了传统的热成像仪制作方式,使用可见光camera和热成像传感器制作了一个双目手机热成像仪。
像素:640x480。
目前,项目已全开源。
——这个热成像仪的设计原理是什么?电路如何设计?软件如何设计?使用了什么算法和技巧?下面一一进行分析。

二、项目功能实现原理了解功能原理前须知:热成像仪,为什么要设计成“双目”的?可见光相机具有分辨率高、帧率高的特点。
热成像传感器可以测量温度分布,但是分辨率低、帧率低。
使用可见光图像来补偿热成像图像,就可以达到热成像图——质量高、分辨率高的效果。
那具体的功能实现是怎样的?下面就分析一下。

本项目整体功能框架图如下。
首先MCU通过I2C接口读取热成像传感器数据,通过USB接口传向USB Hub。
Camera通用免驱USB摄像头,也接到USB Hub上面。
然后将Usb Hub和Android手机连接。
接着,Android手机的应用层就会获取到两个传感器的数据。
通过一定算法进行融合,就能得到——分辨率较高、质量较好的热成像图。

这是热水壶热量分布图:这是白天公园的热量分布图:这是夜间街道的热量分布图:想实现这样的效果,软硬件该如何设计呢?三、硬件设计原理原理图PCB图本章会将原理图拆分为5部分,一一说明一下。
1.MCUMCU使用的是STM32F411CEU6,带USB FS,其带浮点运算单元可对热成像数据进行解算。
2.USB HubUSB Hub使用的是SL2.1A,支持USB HS,可以用于传输摄像头数据。
此处接了晶振,可不焊接。
Camera则通过焊接方式连接到CAM_DM/CAM_DP。
USB1是一个USB TypeC公头,用于连接手机。
3.热成像传感器热成像传感器使用的是MLX90640。
分辨率:32x24像素;I2C接口最高速率:1MHz。
4.电源电源这里直接使用了一块LDO进行稳压,型号是ME6211。
这可以直接用低ESR的陶瓷电容进行输入输出的稳压。
5.其他电源灯和测试LED电路:调试SWD接口:测试点,固件使用UART2作为Debug串口:完成了硬件部分的设计,咱们再深入剖析一下,软件部分的核心算法是什么。

四、软件设计原理软件部分,将重点分析——软件设计思路、Android APP设计、数据融合算法,这三个部分。
1.软件设计思路开发环境使用STM32CubeIDE。
软件整体设计框架图如下:通过I2C从mlx90640读取数据,进行打包,再使用USB发送读取到的数据。
整个过程使用一个循环即可。
其中mlx90640的温度测量范围是-40到300摄氏度。
值得注意的是:温度测量范围需要保留两位小数,转换为整型为-4000到30000,也可以用16位整型覆盖,使用一个0x8000为起始码,后续跟768个温度数据。
mlx90640官方已经提供驱动,只需要实现对应I2C的读写操作,即可通过API来读取传感器数据。
USB库由CubeIDE自动生成,直接调用USBCDC发送数据即可。
2.Android APPAndroid端主要负责——数据读取、融合和显示功能的实现。
这里有两个USB设备:一个是USB串口,用于传输热成像数据;一个是USB摄像头,用于传输图像数据。
①软件框架Camera和热成像传感器的数据读取都有对应的库支持。
由于两个库对数据的读取都是用的异步回调的方式,因此这里采用双buffer缓存的机制就以Camera为例,解析一下数据读取的逻辑:初始化一个长度为2的队列。
回调发生时,就新申请一块buffer,然后将YUV数据拷贝到这块buffer中,再将这块buffer放入队列。
再起一个线程,不断从队列中读取数据,用于数据融合。
如果线程读取太慢,回调发现队列已经满,则从队列中取出一块buffer丢弃,然后再将新的buffer放入队列。
如果回调一直不来,线程队列为空,则跳过下一次再读取。
因为每一次回调都会新申请一块buffer,因此buffer不存在并发问题。
队列添加和删除访问的都是同一个数据结构,存在并发问题,操作时需要注意上锁。
如上所述,Camera有两个队列:一个存放YUV数据;一个存放热成像数据。
只通过一个线程来访问两个队列。
两个队列都有数据时才取出,并进行数据融合。
由此我们得出,软件总体运行流程如下:②Camera数据读取和预览Android对摄像头的支持使用UVCAndroid。
该库基于saki4510t/UVCCamera开发,提供了更为简单的接口。
③热成像数据读取和预览热成像数据通过USBCDC传输,在Android端看到的是一个虚拟串口。
Android开发环境中,主要使用felHR85/UsbSerial提供虚拟串口的操作支持,并在回调中将热成像数据放入队列中。
3.数据融合上面提到过多次“数据融合”。
那么,要如何获取数据,并进行融合呢?①获取数据使用一个线程即可获取数据。
这里预计可见光相机的帧率会比热成像帧率更高。
因此在等待mYUVQueue队列有数据时才会进行数据融合。
当 mThermalQueue 没有数据时,则默认使用上一帧的数据。
②融合算法这里摄像头采集的是可见光的图像,分辨率是640x480;热成像采集的是温度分布,分辨率是32x24。
融合算法的目的是——通过参考可见光的图像,让热成像采集的温度图像分辨率更高,拥有更多的细节。
该算法基于一个假设:颜色相近的像素,大概率来自同一个物体,对应的温度也应该相近。
该算法的流程如下:将热成像温度的分布,通过线性插值扩大到640x480像素。
以当前像素点为中心,选定一个长宽为REF_LEN的方形区域。
假设当前camera像素的亮度值为v;方形区域中每个camera像素的亮度值为v_i;每个thermal像素的亮度值为t_i。
计算当前像素和参考区域每个像素的差值delta_v_i。
计算系数矩阵,系数表示每个像素的权重。
当delta_v_i >= 0时,k_i = 1 - delta_v_i / 255;当delta_v_i < 0时,k_i = 1 + delta_v_i / 255。
计算估计值矩阵,表示每个像素相对于当前像素温度的估计值,t_hat_i = k_i t_i。
计算估计值矩阵的平均值,即当前像素的温度估计值。
由以上算法可知,在参考值矩阵中,与当前像素值色度差值越小,对应的系数k_i也就越大,对应温度的估计值也就越大,对应的估计的温度也就越接近。
举个栗子。
使用如下两个图片进行本地仿真。
第一张是camera拍的图片,第二张是热成像获取的经过插值放大后的温度分布图片。
分辨率均为640x480。
当REF_LEN = 4时,融合结果如下:当REF_LEN = 7时,融合结果如下:可见,加入融合算法之后,原本插值放大的低频信息中,多出了一些高频细节。
色彩映射完成一个热成像仪的最后一步,就是将融合后的图像转为伪彩色,再按照YUV的方式映射到camera图像中。
最终效果如下:
因为色彩映射的原因,原本热成像融合出的高频细节被淹没在海量的camera图像细节中,因此图像融合算法的效果并不明显,后续可能会分为两种模式分别进行输出。
参考资料:[1]https://oshwhub.com/colourfate/binocular_thermal_imager— 完 —嘉立创EDA·头条号关注我,看一手优质开源项目
能让很简单方法变热手机成像仪(能让很简单数据成像成像仪)
(图片来源网络,侵删)

联系我们

在线咨询:点击这里给我发消息