| 项目名称 | AIOT实验箱 | 项目编号 | XF-WSBX-****** |
|---|---|---|---|
| 公示开始日期 | 2025-11-05 16:04:09 | 公示截止日期 | 2025-11-12 18:00:00 |
| 采购单位 | ******大学 | 付款方式 | 货到付款,甲方在到货验收后15日内向乙方一次性支付本项目的总额 |
| 联系人 | 中标后在我参与的项目中查看 | 联系电话 | 中标后在我参与的项目中查看 |
| 签约时间要求 | 成交后3个工作日内 | 到货时间要求 | 成交后3个工作日内 |
| 预算 | ¥ 105,000 | ||
| 供应商资质要求 |
符合《政府采购法》第二十二条规定的供应商基本条件
|
||
| 收货地址 | ******大学玉泉校区教二104室 | ||
采购清单1
| 采购物品 | 是否允许进口 | 采购数量 | 计量单位 | 所属分类 |
|---|---|---|---|---|
| AIOT实验箱 | 否 | 3 | 台 | 其他终端设备 |
| 品牌 | |||
|---|---|---|---|
| 规格型号 | |||
| 预算 | ¥ 35,000 | ||
| 技术参数 | 一、 实验箱包含A+B+C三个区域 ①A区域:人工智能/边缘计算 10.1寸高清屏,分辨率1280x800 8核8nm 2.4GHz A76+A55 ARM Mali-G610 MP4四核 GPU 算力高达 6TOPS,支持int4/int8/int16混合运算 支持TensorFlow、Pytorch、MXNet、Caffe等模型 4GB LPDDR4+32G eMMC、32GTF 双频Wi-Fi6 + BT5.0 支持Android12和Ubuntu20.04系统 ②B区域:AIOT智能硬件 3核异构AIoT芯片:M33 300MHz、HIFI4 DSP 300MHz、NPU 0.25GOPS INT8算力 30W摄像头,用于视觉检测识别 2.4寸触摸LCD显示屏 双麦克风阵列,支持离线语音识别、合成、模型训练和部署 Wi-Fi/BLE模块,支持在线大模型、多模态的综合应用开发 ③C区域:工业采集与控制 网络模块:Wi-Fi2.4 a/g/n,蓝牙BLE、NB-IOT 工业控制接口:RS485、CAN、RS232、步进电机接口、减速电机接口、继电器接口 传感器接口:支持ADC、DAC、PWM 特点: 板载6TOPS边缘计算平台,支持TensorFlow、PyTorch、MXNet、Caffe等一系列主流深度学习框架;支持INT4/INT8/INT16混合运算,可适用于边缘计算、人工智能、云计算、增强现实等领域; 系统支持全面,如FreeRTOS、Zepyhr;Linux、Ubuntu22.04、Android12、麒麟鸿蒙等国产操作系统; 板载5G/NB-IoT、Wi-Fi、BLE5.0等模组,支持通过5G窄带、Wi-Fi、BLE通信,通过板载接口、可支持更多的物联网通信方式,如Zigbee、LoRa等; 开发底板支持RS232、RS485、CAN等工业通信接口,支持接入工业传感设备,完成工业级别的传感采集和联网应用; 支持AI平台、物联网云平台、元宇宙数字孪生应用; ******居、智慧旅游、智慧农业、智慧医疗、智慧城市、智慧交通等智能场景的应用; 提供入门指导手册、实验指导手册、源代码、开发工具; 二、涵盖实验内容: 计算机视觉综合实验 自然语言处理综合实验 人工智能综合实验 人脸识别 头肩&手势识别 语音合成 大语言模型 活体检测 双目测距 SLAM建模 ROS虚拟仿真 YOLOV5目标检测 YOLOV5+Deepsort视频跟踪 OpenPOSE姿态检测 麦克风阵列相关实验 Linger模型量化推理实验 大模型知识库RAG实验 大模型知识图谱应用实验 离线大模型全流程智能体交互控制实验 三、部分实验如下 基于MediaPipe的手势识别与虚拟拖拽 该实验系统实现了实时手势识别(检测手掌、手指位置并显示关键点与距离)、虚拟方块控制(通过食指中指夹取拖拽变色方块)以及帧率优化(实时显示FPS,可通过降低处理频率、采用低复杂度模型和置信度阈值提升性能)三大核心功能。 人脸考勤系统 本实验开发了一套基于人脸识别的智能考勤系统,提供注册和识别两种模式:注册模式通过摄像头实时检测人脸并标注68个关键点,每3秒自动采集一次人脸特征,完成3次采集后保存特征数据;识别模式则实时检测并比对已注册人脸,显示姓名、匹配度及最近3条识别记录,成功识别后自动记录考勤信息至CSV文件并提示"打卡成功"。 基于yolov5实例分割的智能防挡弹幕实验 本实验基于RKNN加速实现了智能弹幕功能,在视频处理过程中实时显示语义分割画面并输出处理进度(帧率、已处理帧数),通过跳帧和分辨率缩放提升处理速度;生成的蒙版图像准确识别主体内容并保持帧间连贯性,弹幕能智能避开主体区域并动态调整透明度;RKNN加速显著提升推理效率并降低功耗,最终输出的视频中弹幕流畅自然且不遮挡关键内容,处理过程实时监控并显示进度和性能指标。 实时工地防护检测系统 该实验通过RKNN加速模型实时检测摄像头视频流中的安全装备(人员标记为绿色框、安全帽和反光背心分别以颜色编码框体显示),并在检测对象旁动态叠加佩戴状态图标,同时左上角实时更新帧率(FPS)和人员计数,最终通过水平翻转的OpenCV窗口(标题"demo")呈现流畅的检测画面,用户可按'q'键退出程序。 Deepsort车辆跟踪分析 该实验基于RKNN加速的YOLOv8和DeepSORT模型,实现了实时车辆检测与跟踪功能:程序初始化后读取视频流并在800×600的OpenCV窗口(标题"show")中显示实时画面,对检测到的车辆绘制带有类别和唯一ID的边界框并保持ID一致性,同时控制台输出帧处理时间、FPS、车辆数量等性能指标,处理结果可保存为带时间戳的MP4视频和跟踪数据TXT文件,用户可通过按键逐帧查看或等待程序自动结束。 ******居 该实验基于TFLite MoveNet模型实现实时人体动作识别系统,程序启动时自动处理训练视频特征并保存至,通过摄像头(编号9)实时捕捉画面并在OpenCV窗口(标题"demo")中显示带6个绿色关键点的人体姿态,用户按下'r'键触发动作录制(通过红/黄/绿状态圆圈提示准备和录制阶段),系统分析40帧动作序列后显示预测结果(如"Pred: wave"),同时实时输出帧率(FPS)和DTW距离分析数据,最后可通过'q'键退出程序。 自动驾驶道路路面分割 本实验实现了一个基于RKNN框架加速的深度学习模型,可同时完成车辆目标检测(car/bus/truck/train)和道路场景语义分割两大核心功能。在车辆检测方面,系统能准确识别各类车辆目标并以绿色边界框标注,实时显示类别、置信度及目标数量;在场景理解方面,采用半透明遮罩技术直观标注可行驶区域(绿色)和车道线(红色),与原始图像融合显示。系统支持多种输入模式:图片处理模式下可保存1280×720分辨率的结果,视频/摄像头模式下则以640×640窗口实时显示处理结果并展示FPS性能指标,通过ESC键可随时退出。该解决方案特别优化了边缘设备部署,模型输入固定为640×640尺寸,自动处理图像自适应和填充,兼容常见图片格式、视频文件及摄像头实时流,充分展现了在嵌入式平台实现实时自动驾驶环境感知的技术可行性。 自然语言处理综合实验 基于LSTM的中文古诗词生成与优化: 本实验聚焦LSTM模型在古诗词生成中的核心应用。内容包括: - 文本预处理:清洗诗歌数据(去除标点、低频词),构建字词到ID的映射,并添加起始/结束标记以标识诗句边界 - LSTM模型构建:设计双层LSTM网络(128个神经元/层),使用Embedding层降维处理词向量,并通过全连接层输出预测结果;优化器采用Adam(学习率0.002),损失函数为稀疏分类交叉熵(sparse_categorical_crossentropy) - 训练与优化:以固定长度生成为目标,通过批量训练(batch_size=128)和迭代调参(如epoch=100)优化模型,监控损失函数并解决长序列依赖问题 等等 |
||
| 售后服务 | 服务网点:当地;电话支持:7x24小时;质保期:1年;服务时限:报修后2小时;商品承诺:原厂全新未拆封正品;上面提到的配套的实验案例全部开源并支持二次开发、并提供配套PPT和教材、还有提供有效的技术指导,产教融合,助力学生成长。; | ||
******大学
2025-11-05 16:04:09