小火苗

  • 2024-11-14
  • 发表了主题帖: 【米尔-全志 T527 开发板-试用评测】-FacenetPytorch人脸识别

    一、facenet_pytorch算法实现人脸识别 深度神经网络 简介 Facenet-PyTorch 是一个基于 PyTorch 框架实现的人脸识别库。它提供了 FaceNet 模型的 PyTorch 实现,可以用于训练自己的人脸识别模型。FaceNet 是由 Google 研究人员提出的一种深度学习模型,专门用于人脸识别任务。 在利用PyTorch神经网络算法进行人脸图像对比的实验设置中,我们专注于对比环节,而不涉及实际项目的完整实现细节。但为了贴近实际应用,我们可以构想以下流程: 1)捕捉新人脸图像:首先,我们使用摄像头或其他图像采集设备捕捉一张新的人脸照片。 2)加载存储的人脸图像:接着,从数据库中加载所有已存储的人脸图像。这些图像是之前采集并存储的,用于与新捕捉到的人脸照片进行对比。 3)构建神经网络模型:为了实现对比功能,我们需要一个预先训练好或自定义的神经网络模型。这个模型能够提取人脸图像中的关键特征,使得相似的图像在特征空间中具有相近的表示。 4)特征提取:利用神经网络模型,对新捕捉到的人脸照片和存储的每一张人脸图像进行特征提取。这些特征向量将用于后续的对比计算。 5)计算相似度:采用合适的相似度度量方法(如余弦相似度、欧氏距离等),计算新照片特征向量与存储图像特征向量之间的相似度。 6)确定匹配图像:根据相似度计算结果,找到与新照片相似度最高的存储图像,即认为这两张图像匹配成功。 7)输出匹配结果:最后,输出匹配成功的图像信息或相关标识,以完成人脸对比的实验任务。 核心组件 MTCNN:Multi-task Cascaded Convolutional Networks,即多任务级联卷积网络,专门设计用于同时进行人脸检测和对齐。它在处理速度和准确性上都有出色的表现,是当前人脸检测领域的主流算法之一。 FaceNet:由Google研究人员提出的一种深度学习模型,专门用于人脸识别任务。FaceNet通过将人脸图像映射到一个高维空间,使得同一个人的不同图像在这个空间中的距离尽可能小,而不同人的图像距离尽可能大。这种嵌入表示可以直接用于人脸验证、识别和聚类。 功能     支持人脸检测:使用MTCNN算法进行人脸检测,能够准确识别出图像中的人脸位置。     支持人脸识别:使用FaceNet算法进行人脸识别,能够提取人脸特征并进行相似度计算,实现人脸验证和识别功能。 二、安装facenet_pytorch库 更新系统 更新ubuntu系统,详情查看米尔提供的资料文件 更新系统软件 apt-get update 安装git等支持软件 sudo apt-get install -y python3-dev python3-pip libopenblas-dev libssl-dev libffi-dev git cmake 安装Pytorch支持工具 # 克隆 PyTorch 源代码 git clone --recursive https://github.com/pytorch/pytorch # 进入 PyTorch 目录 cd pytorch # 安装 PyTorch (需要根据你的需求选择 CUDA 版本,如果不需要 GPU 支持则不需要 --cuda 参数) pip3 install --no-cache-dir torch -f https://download.pytorch.org/whl/torch_stable.html # 测试 PyTorch 安装 python3 -c "import torch; print(torch.__version__)" 5.安装facenet_pytorch pip3 install facenet_pytorch 三、CSDN参考案例 1.代码实现 ############face_demo.py############################# import cv2 import torch from facenet_pytorch import MTCNN, InceptionResnetV1 # 获得人脸特征向量 def load_known_faces(dstImgPath, mtcnn, resnet): aligned = [] knownImg = cv2.imread(dstImgPath) # 读取图片 face = mtcnn(knownImg) # 使用mtcnn检测人脸,返回人脸数组 if face is not None: aligned.append(face[0]) aligned = torch.stack(aligned).to(device) with torch.no_grad(): known_faces_emb = resnet(aligned).detach().cpu() # 使用ResNet模型获取人脸对应的特征向量 print("\n人脸对应的特征向量为:\n", known_faces_emb) return known_faces_emb, knownImg # 计算人脸特征向量间的欧氏距离,设置阈值,判断是否为同一张人脸 def match_faces(faces_emb, known_faces_emb, threshold): isExistDst = False distance = (known_faces_emb[0] - faces_emb[0]).norm().item() print("\n两张人脸的欧式距离为:%.2f" % distance) if (distance < threshold): isExistDst = True return isExistDst if __name__ == '__main__': # help(MTCNN) # help(InceptionResnetV1) # 获取设备 device = torch.device('cuda:0' if torch.cuda.is_available() else 'cpu') # mtcnn模型加载设置网络参数,进行人脸检测 mtcnn = MTCNN(min_face_size=12, thresholds=[0.2, 0.2, 0.3], keep_all=True, device=device) # InceptionResnetV1模型加载用于获取人脸特征向量 resnet = InceptionResnetV1(pretrained='vggface2').eval().to(device) MatchThreshold = 0.8 # 人脸特征向量匹配阈值设置 known_faces_emb, _ = load_known_faces('yz.jpg', mtcnn, resnet) # 已知人物图 faces_emb, img = load_known_faces('yz1.jpg', mtcnn, resnet) # 待检测人物图 isExistDst = match_faces(faces_emb, known_faces_emb, MatchThreshold) # 人脸匹配 print("设置的人脸特征向量匹配阈值为:", MatchThreshold) if isExistDst: boxes, prob, landmarks = mtcnn.detect(img, landmarks=True) print('由于欧氏距离小于匹配阈值,故匹配') else: print('由于欧氏距离大于匹配阈值,故不匹配') 此代码是使用训练后的模型程序进行使用,在程序中需要标明人脸识别对比的图像。 2.实践过程 第一次运行时系统需要下载预训练的vggface模型,下载过程较长,后面就不需要在下载了运行会很快。如图所示: 3.程序运行异常呗终止 运行程序,提示killed,系统杀死了本程序的运行,经过多方面的测试,最终发现是识别的图片过大,使得程序对内存消耗过大导致。后将图片缩小可以正常运行了。 以下是对比图像和对比结果。 四、gitHub开源代码 首先下载代码文件 代码库中,大致的介绍了facenet算法的训练步骤等。 代码实现 以下是facenet的python代码,注意需要更改下面的一条程序"cuda" False,因为t527使用的是cpu,芯片到时自带gpu但是cuda用不了,因为cuda是英伟达退出的一种计算机架构。 import matplotlib.pyplot as plt import numpy as np import torch import torch.backends.cudnn as cudnn from nets.facenet import Facenet as facenet from utils.utils import preprocess_input, resize_image, show_config #--------------------------------------------# # 使用自己训练好的模型预测需要修改2个参数 # model_path和backbone需要修改! #--------------------------------------------# class Facenet(object): _defaults = { #--------------------------------------------------------------------------# # 使用自己训练好的模型进行预测要修改model_path,指向logs文件夹下的权值文件 # 训练好后logs文件夹下存在多个权值文件,选择验证集损失较低的即可。 # 验证集损失较低不代表准确度较高,仅代表该权值在验证集上泛化性能较好。 #--------------------------------------------------------------------------# "model_path" : "model_data/facenet_mobilenet.pth", #--------------------------------------------------------------------------# # 输入图片的大小。 #--------------------------------------------------------------------------# "input_shape" : [160, 160, 3], #--------------------------------------------------------------------------# # 所使用到的主干特征提取网络 #--------------------------------------------------------------------------# "backbone" : "mobilenet", #-------------------------------------------# # 是否进行不失真的resize #-------------------------------------------# "letterbox_image" : True, #-------------------------------------------# # 是否使用Cuda # 没有GPU可以设置成False #-------------------------------------------# "cuda" : False, }@classmethod def get_defaults(cls, n): if n in cls._defaults: return cls._defaults[n] else: return "Unrecognized attribute name '" + n + "'" #---------------------------------------------------# # 初始化Facenet #---------------------------------------------------# def __init__(self, **kwargs): self.__dict__.update(self._defaults) for name, value in kwargs.items(): setattr(self, name, value) self.generate() show_config(**self._defaults) def generate(self): #---------------------------------------------------# # 载入模型与权值 #---------------------------------------------------# print('Loading weights into state dict...') device = torch.device('cuda' if torch.cuda.is_available() else 'cpu') self.net = facenet(backbone=self.backbone, mode="predict").eval() self.net.load_state_dict(torch.load(self.model_path, map_location=device), strict=False) print('{} model loaded.'.format(self.model_path)) if self.cuda: self.net = torch.nn.DataParallel(self.net) cudnn.benchmark = True self.net = self.net.cuda() #---------------------------------------------------# # 检测图片 #---------------------------------------------------# def detect_image(self, image_1, image_2): #---------------------------------------------------# # 图片预处理,归一化 #---------------------------------------------------# with torch.no_grad(): image_1 = resize_image(image_1, [self.input_shape[1], self.input_shape[0]], letterbox_image=self.letterbox_image) image_2 = resize_image(image_2, [self.input_shape[1], self.input_shape[0]], letterbox_image=self.letterbox_image) photo_1 = torch.from_numpy(np.expand_dims(np.transpose(preprocess_input(np.array(image_1, np.float32)), (2, 0, 1)), 0)) photo_2 = torch.from_numpy(np.expand_dims(np.transpose(preprocess_input(np.array(image_2, np.float32)), (2, 0, 1)), 0)) if self.cuda: photo_1 = photo_1.cuda() photo_2 = photo_2.cuda() #---------------------------------------------------# # 图片传入网络进行预测 #---------------------------------------------------# output1 = self.net(photo_1).cpu().numpy() output2 = self.net(photo_2).cpu().numpy() #---------------------------------------------------# # 计算二者之间的距离 #---------------------------------------------------# l1 = np.linalg.norm(output1 - output2, axis=1) plt.subplot(1, 2, 1) plt.imshow(np.array(image_1)) plt.subplot(1, 2, 2) plt.imshow(np.array(image_2)) plt.text(-12, -12, 'Distance:%.3f' % l1, ha='center', va= 'bottom',fontsize=11) plt.show() return l1 代码实现 此代码调用的签名的代码,但其可以直接的去调用图片进行人脸识别。 from PIL import Image from facenet import Facenet if __name__ == "__main__": model = Facenet() while True: image_1 = input('Input image_1 filename:') try: image_1 = Image.open(image_1) except: print('Image_1 Open Error! Try again!') continue image_2 = input('Input image_2 filename:') try: image_2 = Image.open(image_2) except: print('Image_2 Open Error! Try again!') continue probability = model.detect_image(image_1,image_2) print(probability) 程序运行 运行程序后首先显示的是程序的配置信息,然后可以输入图像对比检测的内容。以下是图像识别的效果和对比的准确率。 五、参考文献 CSDN博客 https://blog.csdn.net/weixin_45939929/article/details/124789487?utm_medium=distribute.pc_relevant.none-task-blog-2~default~baidujs_baidulandingword~default-1-124789487-blog-142987324.235^v43^pc_blog_bottom_relevance_base6&spm=1001.2101.3001.4242.2&utm_relevant_index=4 官方源码来源 https://gitcode.com/gh_mirrors/fac/facenet-pytorch/overview

  • 2024-11-06
  • 回复了主题帖: 嵌入式工程师AI挑战营(进阶):在RV1106部署InsightFace算法的多人实时人脸识别实战

    InsightFace是由旷视科技(Megvii)开发的一款高效的人脸识别、人脸检测和人脸对齐算法库。 开发环境搭建,安装Python和相关的依赖库,在ubuntu PC系统进行人脸识别算法的开发。 使用RKNN-Toolkit2进行算法程序的转换,因为RKNN是在电脑端进行应用的,在嵌入式端无法直接运行。所以需要使用工具进行算法程序的转换。 实际开发,在pc端进行人脸识别算法的开发和训练,最终将算法程序部署到rv1106电路板上进行实际的使用和调试。

  • 2024-10-16
  • 回复了主题帖: 【新定义TBK-RD8T3x 触摸滑条和按键评估板】三、触摸滑动触摸&RDS魔盒

    程英茂 发表于 2024-10-16 07:48 提出了问题,之后忽然找到了答案, 厉害厉害 这几天没看消息 错过了

  • 2024-09-19
  • 回复了主题帖: 【 匠芯创D133CBS】-小火苗-PWM测试

    Jacktang 发表于 2024-9-14 07:46 用不了其他引脚进行PWM测试,这个最后怎么处理的呢 蜂鸣器用的是PWM1 用的蜂鸣器  

  • 回复了主题帖: 【 匠芯创D133CBS】-网络通讯测试

    Jacktang 发表于 2024-9-15 08:48 评估板不知道怎么回事下载不了其编译后的镜像,这个是个小遗憾 是啊  

  • 2024-09-13
  • 发表了主题帖: 【 匠芯创D133CBS】-小火苗-PWM测试

    PWM工作原理 PWM 信号 < class="p" style="">PWM 信号通常由一列占空比不同的矩形脉冲构成,其占空比可以调节。用数字输出来控制 PWM 占空比,占空比提高意味着高电平脉宽增大,输出的能量就会增加,PWM 就相当于一个 功率版的 DA 转换模块。下图是一个典型的 PWM 信号波形:       图典型的 PWM 信号波形 < class="p" style="">占空比的计算方法: 占空比 = (脉宽时间 / 周期) * 100%   < class="p" style="">结合上图,我们可以说: 脉宽时间 1 相比 脉宽时间 2 提供较小的占空比。   < class="p" style="">PWM 通常用于背光亮度调节、电机控制、舵机控制等。本文仅限于 PWM 调节背光的功能,通过调节 PWM 中的占空比,达到控制 LED 背光电流的通和断,进而可调整背光亮度。   PWM驱动配置 打开VsCode软件,打开该文件,在VsCode下打开终端,输入list命令查看系统,使用lunch 11 选择程序系统。   在文件夹下打开win_cmd.bat终端,因为VsCode打开menuconfig配置文件的时候显示和操作会很卡。所以直接用电脑自带的终端打开。       编译 使用终端命令scons进行编译   下载   测试 查看手册和板子原理图,PWM引脚接入蜂鸣器,其余的PWM引脚被其他功能复用,所以在此使用不了其他引脚进行PWM测试。            

  • 发表了主题帖: 【 匠芯创D133CBS】-网络通讯测试

      一、MAC 使用指南 支持全双工/半双工 支持 100/10 Mbps,部分 SoC 支持 1000 Mbps 支持 RMII 接口,部分 SoC 支持 RGMII 接口 支持内部 DMA TXFIFO/RXFIFO 的大小均为 2048 Byte,均支持阈值模式和存储-转发模式 支持 VLAN 哈希过滤 支持 64-bit 哈希地址过滤、完美地址过滤(支持 8 个地址寄存器) 支持源地址的插入/替换,VLAN 的插入/替换/删除,CRC 的插入/替换/删除 支持接收校验和错误检测 支持发送校验和计算 二、以太网介绍 以太网(Ethernet)是一种计算机局域网组网技术,基于 IEEE802.3 标准,它规定了包括物理层的连线(RJ45),电气信号(PHY)和媒体访问层(MAC)协议等, 以太网的特征是有线网络,网络中的各终端必须通过网线进行连接,以太网模块可以简单的理解为 MAC 通过 MII 总线控制 PHY 共同完成终端之间数据交换的一种设备。 使用拓扑 一个典型的以太网电路至少需要如下器件的参与 RJ45 连接器 网络变压器 晶振 PHY 收发器 MAC 控制器 AP 处理器 D211 集成 MAC 控制器模块,AP 内部也可以提供 PHY 收发器所需的时钟,从而不使用外部晶振模块。 如果要提升硬件的防静电能力,外部一般会增加 ESD 保护电路。   三、MAC 架构     图模块架构   图MAC 架构   图PHY 架构 四、程序开发--上点干货       五、测试过程 1、镜像选择 Built-in configs:   8. d13x_demo88-nand_baremetal_bootloader   9. d13x_demo88-nand_rt-thread_helloworld  10. d13x_demo88-nor_baremetal_bootloader  11. d13x_demo88-nor_rt-thread_helloworld  12. d13x_kunlunpi88-nor_baremetal_bootloader  13. d13x_kunlunpi88-nor_rt-thread_helloworld  以上六种程序系统适配当前的开发板,d13x_demo88-nand_rt-thread_helloworld系统更适合开发网口程序,但是我的评估板不知道怎么回事下载不了其编译后的镜像,问官方也未得到反馈。后面使用的是d13x_kunlunpi88-nor_rt-thread_helloworld系统进行的实验。   Lwip简介 LWIP是一个轻量的开源的TCP/IP协议栈,专为嵌入式系统设计,在RTOS应用非常多。 特点‌:LwIP可以在有无操作系统的情况下运行,重点是在保持TCP协议主要功能的基础上减少对RAM的占用,通常只需十几KB的RAM和40K左右的ROM即可运行。 ‌应用‌:适用于资源受限的嵌入式设备,如云台接入、无线网关、远程模块等。 ‌接口‌:提供RAW API、NETCONN API和SOCKET API三种编程接口,方便开发者根据需求选择使用。 ‌优势‌:代码量小、可配置性强、支持多平台,广泛应用于物联网项目中‌  

  • 2024-09-12
  • 发表了主题帖: 【 匠芯创D133CBS】-小火苗-CAN通讯测试实验

    一、CAN配置 驱动配置 Board options --->      Using CAN0      Using CAN1 luban-lite CAN 的 driver 层是基于 RT-Thread 的 CAN 驱动框架实现的,所以需要使能 RT-Thread 的 CAN 驱动框架: RT-Thread options --->     RT-Thread Components --->         Device Drivers --->              Using CAN device drivers              Enable CAN hardware filter             [ ] Enable CANFD support     EEWORLDIMGTK0 二、CAN 测试程序配置 在 Luban-Lite 根目录下执行 scons --menuconfig,进入 menuconfig 的功能配置界面,按如下选择: Drivers options  --->     Drivers examples  --->          Enable CAN driver test command           三、程序编译 程序经过以上配置后编译程序系统便带有了RTC的例程,编译命令为scons。如图所示:   四、程序下载 程序下载使用USB下载会很快,首先连接好设备后,按住BOOT按键不松手再按RESET按键,下载软件便可以发现设备。       五、CAN 收发测试 正常模式收发测试 将测试板上的 CAN0 接口连接到CAN分析仪上。执行 sample 命令,CAN0 会向 CAN1 发送数据,CAN分析仪会打印接收到的数据。 aic /> can_sample 回环模式收发测试 在打开 test_can 的编译后,板子上可直接运行 test_can 命令: aic /> test_can test_can - test CAN send frame to itself (loopback mode) Usage:         test_can <can_name> frame_id#frame_dataFor example:         test_can can1 1a3#11.22.9a.88.ef.00   执行命令,CAN 设备会向自己发送数据,并会打印接收到的数据。   aic /> test_can can1 1a3#11.22.9a.88.ef.00 # 设置 CAN1 为接收端和发送端,发送数据帧 1a3#11.22.9a.88.ef.00 The can1 received thread is ready... received msg: ID: 0x1a3 DATA: 11 22 9a 88 ef 00 以上是官方的教程,实操如图所示:         六、相关资料 电路引脚,如图所示:    

  • 2024-09-11
  • 发表了主题帖: 【 匠芯创D133CBS】-小火苗-RTC时钟测试

    一、RTC配置 参考官方文档手册,配置如下: 在 Luban-Lite 根目录下执行 scons --menuconfig,进入 menuconfig 的功能配置界面,按如下选择: Board options  --->      Using RTC         RTC parameter  --->             (3276800) The actual rate of 32K clock             [ ] Enable the alarm IO output             [ ] Enable the 32K clock output 当使用 RT-Thread 内核的时候,RTC 驱动需要依赖 Thread 的 RTC 设备驱动框架和 alarm 框架,也是在 menuconfig 界面中打开: Rt-Thread options  --->     RT-Thread Components  --->         Device Drivers  --->               Using RTC device drivers                  Using RTC alarm 二、时区配置 1、在 RT-Thread 组件中提供了时区管理功能,Luban-Lite SDK 中默认配置时区为 中国的 +8 时区。 在 Luban-Lite 根目录下执行 scons --menuconfig,进入 menuconfig 的功能配置界面,进入功能配置: Rt-Thread options  --->     RT-Thread Components  --->         C/C++ and POSIX layer  --->             (8) Set the default time zone (UTC+) 2、使用命令配置:   串口 Aic命令界面使用的是串口通讯,板子载有UART0-DEBUG接口,通过USB转TTL进行通讯,串口波特率为115200 三、程序编译 程序经过以上配置后编译程序系统便带有了RTC的例程,编译命令为scons。如图所示:      四、程序下载 程序下载使用USB下载会很快,首先连接好设备后,按住BOOT按键不松手再按RESET按键,下载软件便可以发现设备。   五、程序验证测试 aic /> test_alarm 3# aic /> [I] test_alarm_callback()9 Test alarm callback function.      

  • 2024-08-26
  • 发表了主题帖: 【 匠芯创D133CBS】-小火苗-仿真和开发环境搭建

      淘宝买的调试器   安装驱动   驱动配置         VS Code设置   VS Code编译         Vs debug   

  • 2024-08-16
  • 回复了主题帖: 【 匠芯创D133CBS】-小火苗-开发前期理论分析

    wangerxian 发表于 2024-8-16 09:23 这是国产芯片吗?有参数吗 国产芯片 售价在18元左右一颗   https://www.artinchip.com/p/25.html  

  • 发表了主题帖: 【 匠芯创D133CBS】-小火苗-开发前期理论分析

    一、硬件外观   硬件电路设计的还是比较板正。 二、系统架构探索 接收到开发板之后一脸蒙,是linux系统还是RTOS系统呢?   从官方资料上看使用的是RTOS系统,Luban-Lite 是 ArtInChip 基于 RT-Thread 系统深度优化的 RTOS SDK,支持 baremetal 构建模式,支持 freerots, rt-thread 核,支持 rt-thread 生态。   Baremetal 是 ArtInChip 的嵌入式裸机系统。 总结,匠芯创D133CBS是用的是ROTS系统和裸机系统两种方式实现软件的开发。 三、开发环境   个人理解,linux系统下开发,和Windows系统下 还有Eclipse软件开发环境,我分析是有这三种开发方式,在之后我选择使用linux系统下进行软件开发。   四、开发用的的下载工具   程序下载工具将编译好的镜像烧录到开发板中,程序烧录有三种种方式,串口(JTAG)、SD卡和USB升级。 五、使用手册 https://www.artinchip.com/knowledge/oxy_ex-1/topics/chapter-system-luban-lite.html   六、JATG 个人分析JATG调试工具在后面的开发调试比较重要    

  • 2024-08-06
  • 回复了主题帖: 测评入围名单: 工业级智能控制MCU 匠芯创D133CBS,追加了3块

    个人信息无误,确认可以完成测评分享计划

  • 2024-07-17
  • 发表了主题帖: 【米尔-全志 T527 开发板-试用评测】-Ubuntu系统游戏安装

    T527-Ubuntu系统游戏安装 一、应用商城游戏软件安装       二、命令行安装 使用命令行进行游戏软件安装小游戏 sudo apt-get install sl             //下载安装sl sudo apt-get install cmatrix        //下载安装代码雨 sudo apt-get install bastet         //下载安装代俄罗斯方块 sudo apt-get install frozen-bubble  //下载安装代泡泡龙 sudo apt-get install oneko          //追逐鼠标指针的小猫 Sudo apt-get install kigo            //围棋    

  • 发表了主题帖: 【米尔-全志 T527 开发板-试用评测】-TeamViewer远程协助

    TeamViewer远程协助软件的安装与使用 一、软件下载      二、软件安装 使用命令行进行安装软件 sudo dpkg -i teamviewer-host_15.55.3_arm64.deb   安装成功后,配置软件。       个人设置的是局域网链接,因为板子WiFi也连的同一个网络,所以在此有两段IP。   三、Windows电脑远程控制   Windows电脑端的软件安装和远程连接操作。   如图所示,电脑端实现对T527的远程桌面操作。

  • 2024-07-01
  • 发表了主题帖: 【米尔-瑞米派Remi Pi-兼容树莓派扩展模块--试用评测】- 扩展接口与树莓派接口对比

    一、电路原理     二、树莓派外接口原理图     三、瑞米派电路功能框图   从原理图框图,可以很清晰的看出来外接口的功能。GPIO、PWM、SPI0、I2C0、I2C1、CAN0和SCIF2、SCIF4等功能。除此之外还有HDMI和MIPI等接口的预留。还有比较重要的一个问题可以看出来WIFI蓝牙模块和SD卡共用了引脚。     Wifi模块使用了SD卡的引脚。    

  • 2024-06-30
  • 发表了主题帖: 【米尔-瑞米派Remi Pi-兼容树莓派扩展模块--试用评测】-ubuntu系统安装

    一、镜像下载 选择myir-image-ubuntu系统镜像,下载。   二、镜像工具 下载SD卡 烧录软件。     三、镜像烧录 制作SD卡镜像     如果是首次烧录还是很麻烦的,需要参考Remi Pi_Linux软件开发指南进行操作。 注意:在此强调一点,个人也是多次尝试最后找到的方法。该系统出厂时默认使用的WIFI功能,因为WIFI模块和SD卡共用引脚,所以启用WIFI功能后SD卡无法正常使用,从而无法更新系统镜像。 所以需要设置下SD卡启动,开发指南有配置方法,但没有进入的方法。在此强调一下。 正常开机时需要一直按回车键,才可以进入后台配置模式。如图所示:     插入SD卡后上电,等待系统更新成功,如图所示:   拔掉SD卡重新上电。 四、镜像显示 米尔Remi系统镜像密码基本都是123456 用户名可以用root 登录后默认桌面为黑色   点击鼠标进行桌面设置。   串口打印信息显示了Ubuntu系统和系统版本,如图所示           五、Deban系统  

  • 发表了主题帖: 【米尔-全志 T527 开发板-试用评测】-485通讯测试

    一、参考米尔提供的资料       使用命令行进行测试485通讯功能是否正常,方便日后的程序开发。 二、原理图     原理图设计参考了米尔官方资料 三、测试    

  • 2024-05-17
  • 回复了主题帖: 【米尔-全志 T527 开发板-试用评测】- 外扩工控板设计原理梳理

    beyond_笑谈 发表于 2024-5-7 15:32 这个板子后面没有再尝试做其他的测评?CPU性能挺不错的 后面会做的 敬请期待

  • 发表了主题帖: 米尔-全志 T527 开发板-试用评测】-外扩板和外壳设计

    米尔官方设计 米尔官方提供的3D文件是.STP文件,可以在资源文件中找到,但是其3D文件缺少部分器件文件(如外壳底板等)固在3维设计软件中无法正常打开。   米尔TL527开发板3D图   外扩板电路设计   电路设计比较简单,具有2路CAN通讯、2路232通讯、4路485通信、备用232通讯一路、2个指示灯和2个按键。 使用3D设计软件,将外扩电路板与主板的固定孔和排针对齐,检测设计是否存在位置偏差。如图所示      整体外壳设计 根据外扩板和评估板的轮廓和各类接口模型,设计外壳。              PCB电路加工焊接完成     

统计信息

已有223人来访过

  • 芯积分:420
  • 好友:--
  • 主题:62
  • 回复:88

留言

你需要登录后才可以留言 登录 | 注册


现在还没有留言