hqbsh.com 运行时间
HQBSH.com的whois记录显示注册于2013年1月18日,至今已经持续运营了:0年0个月0天零0小时0分钟0秒

最新报价
 找回密码
 立即注册

QQ登录

只需一步,快速开始

查看: 9|回复: 0

文章标题

[复制链接]

154

主题

1

回帖

57

银子

超级版主

积分
3273
发表于 2026-4-3 08:17 | 显示全部楼层 |阅读模式
五十年前的阿波罗飞船还在用8位微处理器,指令舱里那台IBM AP-101每秒只能跑个4万来条指令,配上惯性测量单元和三轴陀螺仪,姿态更新率撑死10Hz,误差校正全靠地面站实时盯着。今天的Artemis计划直接把AI塞进了从轨道器到登月器的每个角落——这中间隔了差不多六十年,硬件体系早就面目全非了。

先说阿波罗的制导核心。霍尼韦尔惯性测量单元听着高大上,说白了就是三轴陀螺仪加加速度计组成的物理闭环,姿态数据靠机械转动生成,更新频率大约10Hz。指令舱的IBM AP-101处理器主频1.024MHz,实际吞吐量每秒4万到8.5万条机器指令。这个数字现在听起来简直是笑话,但在1960年代,这已经是机载计算机的天花板了。

做个对比就清楚了:iPhone 15的A17 Pro芯片每秒能执行约17亿条指令,是AP-101的4万多倍。Artemis II用的AMD Virtex-5QV抗辐射FPGA虽然算力跟商业芯片没法比,但已经能在SLS火箭和Orion飞船里扛起传感器融合、数据路由、图像处理这些实时计算任务了。

Artemis的计算架构分三层:

| 层级 | 组成 | 主要能力 |
|------|------|---------|
| 地月空间 | Lunar Gateway(门户站)PPE模块 | 高吞吐量星间链路,星载AI推理 |
| 月球轨道 | Orion飞船飞行计算机 | 多源传感器融合,异常自检 |
| 月面系统 | SpaceX Starship HLS、载人登月器 | 自主避障,视觉定位 |

**Lunar Gateway PPE模块**

Gateway的动力与推进元件(PPE)是Maxar Technologies造的,里面塞了NVIDIA GPU集群用来给月表地形做三维建模。这个GPU集群不是拿来跑通用AI推理的,而是针对月面视觉任务——主要是TERRA地形匹配算法——做了定制优化。Gateway设计成无人值守模式,轨道维持、姿态控制、太阳能阵列指向全靠自主算法撑着。

**Orion飞船飞行计算机**

Orion的飞控计算机用的是RAD750抗辐射处理器,主频200MHz,BAE Systems出品,在航天级芯片里已经是顶级货了。拿商业芯片比一下:树莓派4的BCM2711主频1.5GHz,是RAD750的7倍多。差距这么大是有代价的——抗辐射设计不能让制程太先进,太细的制程对单粒子翻转敏感得很,还得做冗余设计,验证周期也长。

有意思的是,Orion不只靠RAD750当家。AMD的Virtex-5QV FPGA在SLS火箭和Orion飞船里也扮演重要角色——它负责传感器数据融合,在辐射环境下保证确定性延迟和高可靠性,顺带承担实时视觉反馈的数据路由任务。

**Starship HLS月面下降系统**

SpaceX的星舰载人登月器(HLS)在月面下降阶段完全靠视觉导航。TERRA算法通过立体相机实时拍月面影像,跟预先存入的轨道地形图做特征匹配,算出当前位置后不断修正轨迹。这个过程对算力的要求看起来不高——但关键是实时性和可靠性:月面下降窗口只有约12分钟,任何卡顿都可能要命。

---

聊到AI能力,Apollo和Artemis的差异就更明显了。

Apollo的导航本质是条单向链路:感知→上传→地面计算→下传参数。宇航员只管执行,轨道解算全在休斯顿Mission Control完成。好处是通信延迟容忍度高——地月往返也就2.5秒,地面有充足时间算好了再发指令。坏处也明显:一旦失联,飞船只能在预设的应急程序里挑一个执行,没法随机应变。

Artemis的AI能力主要体现在三个方向。

**自主导航与避障**

月面下降窗口极短,进入光照区后约12分钟必须触地。视觉导航系统接管后,延迟压缩到毫秒级。Starship HLS的TERRA算法通过月面影像与轨道预制地图的实时匹配,把着陆精度从Apollo的公里级提升到百米以内。Apollo 11在静海着陆时偏离预定坐标约6公里,Artemis的目标是在光照充足、地形相对平坦的月球南极区域实现百米级精度。

实现这个精度的关键技术是SNAP(Surface Navigation and Planning)算法,NASA JPL开源的。思路大概是:先在地面用月球轨道器拍摄的高分辨率影像构建稀疏点云地图,上传至登月器作为参考基准;下降过程中立体相机实时拍新影像,与基准地图做特征点匹配(跟视觉SLAM一个道理),解算出位置误差后注入制导系统。

**系统级健康管理**

Orion的EGS集成了NASA自研的MOONS故障预测模型,在飞行过程中对推进剂剩余、舱压、热控等200余个参数做边缘推理,提前识别传感器漂移和阀门异常。Apollo时代这些参数的监控完全依赖地面团队:休斯顿Mission Control有几十名飞行控制员轮班盯着监控屏幕,异常发现全靠人工经验。

MOONS模型在地面完成预训练(用历史任务数据),轨上推理引擎在飞行过程中做在线推断。当某个传感器读数出现趋势性漂移但还没触发阈值告警时,MOONS就能给出预警——这在Apollo时代是不可能的。NASA 2022年Artemis架构评审报告显示,Gateway的自主运营将任务控制中心工作负荷降低约60%。

**Gateway自主运营**

Lunar Gateway设计为无人值守模式,这是Apollo从未实现过的能力。地球轨道的ISS虽然也有自主运行时段,但有定期Crew访问维护。Gateway的LTO场景要求所有关键系统都能在地面团队不干预的情况下自主应对异常:姿态失控后自主恢复、轨道衰减后自主抬升、太阳能阵列指向偏差后自主修正。

实现这套能力的关键软件栈是NASA的Core Flight System(cFS),模块化的飞行软件框架。各舱段的软件通过标准接口(Software Bus)通信,不同供应商、不同舱段也能无缝交互。但这带来了接口标准化的挑战——这恰恰是Artemis III多次延期的主要原因之一。

---

通信架构方面,Apollo和Artemis也是两个时代。

Apollo依赖S波段统一载波(USB),上下行速率严重不对称,下行约1.6Mbps话音,上行只有几十kbps话音,数据量受严格管控。最夸张的例子是阿波罗11号登月时,宇航员在月面行走时与地面的通信带宽只够传话音,电视直播信号分辨率被压缩到极低——这还是专门架设了地面站才实现的。

Artemis改用激光通信(LLCD/LCRD)作为骨干,月地链路理论速率达Gbps级别。LLCD在2013年随LADEE探测器验证过,下行速率622Mbps,重量还不到Apollo时代微波应答机的十分之一。激光通信的优势不仅是速率:波束发散角极小,窃听难度极高,对深空通信的电磁干扰也更免疫。

但激光链路有代价:对准精度要求苛刻。月球南极极寒阴影区缺乏足够光照为太阳能阵列供能时,Gateway的自主运行算法必须接管更多决策。另外,激光通信在大气扰动——云层、雾霾——中的衰减比微波严重得多,月地之间不能有厚云层遮挡。

Artemis II任务中,Orion将测试与地面之间的激光双向通信,验证实际飞行条件下的链路可靠性。如果LCRD在轨测试顺利,Artemis III起将全面切换至激光通信作为主下行通道。

---

Artemis的AI架构并非无懈可击。RAD750芯片的200MHz主频在辐射加固领域已是顶尖,但与商业级AI芯片的算力差距超过三个数量级。NASA目前采用的策略是把重计算任务卸载至地面,轨上AI仅承担时延敏感子集——这距离真正意义上的"全自主"还有距离。

具体瓶颈有几个。

**算力瓶颈的工程含义**。RAD750的200MHz主频意味着,如果把MOONS故障预测模型在RAD750上跑一次完整的传感器数据扫描,可能需要几十毫秒到数百毫秒。Orion飞行过程中传感器采样率是1Hz,勉强能跑。但如果模型复杂度提升——比如加入更多预测维度——就可能超时。这意味着Artemis的AI能力受限于飞行级硬件的算力天花板,不是在地面训练完就能随意增强的。

**多国协作的软件互操作性**。Gateway各舱段来自不同供应商——美国的PPE、欧洲的ESPRIT和IHAB、日本的Kibo扩展模块——软件栈互操作性是Artemis III延期的主要原因。Apollo时代IBM、TRW等少数供应商提供的封闭式系统虽然性能有限,反而规避了复杂的供应链协调成本。性能与复杂度永远是一对矛盾,这点在航天领域体现得格外明显。

**月球南极的特殊挑战**。Artemis选择月球南极作为主要着陆区,有水冰资源考量,但阴影区极寒——最低可达-250°C——对电子设备是严峻考验。永夜陨石坑内的探测器必须依靠同位素温差发电机(RTG)或特殊设计的抗冻电池才能存活,这与地球附近的太阳能加电池方案完全不同。

---

Artemis AI架构的演进方向是明确的:算力上天、推理下沉、地面做训练。

随着COTS(商业现货)芯片通过辐射加固逐步进入飞行级清单,未来Gateway的计算密度有望提升一个数量级。AMD已在推广Versal AI Edge Gen 2自适应SoC,虽然还没登上当前Artemis任务,但已进入Blue Origin开发中的飞行计算机方案。

NASA也在推进星上微调能力,使探测器能在月面就地更新障碍物识别模型。想象一个月面巡视器在行进过程中发现某种岩石特征无法识别——传统做法是拍摄影像、传回地球、地面团队标注数据、重新训练模型、再上传更新,这个周期可能需要数周。星上微调的目标是把整个流程压缩到几小时内。

对于商业航天从业者而言,Artemis的AI架构提供了一条清晰的技术验证路径:成熟算法(如TERRA类视觉导航)在地面完成预训练,将推理模块移植至飞行级硬件。这条路径的工程化成本正在下降,但辐射环境下的模型可靠性验证仍是核心瓶颈。

你觉得AI在深空探索中扮演什么角色?是辅助工具还是未来的决策核心?
回复

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

 
 
加好友78950405
QQ臨時會話
華強北商行笔记本,手機
淘宝阿里旺旺
沟通交流群:
水货thinkpad笔记本
工作时间:
11:00-22:00
电话:
18938079527
微信联系我们

QQ|手机版|华强北商行 ( 粤ICP备17062346号 )

JS of wanmeiff.com and vcpic.com Please keep this copyright information, respect of, thank you!JS of wanmeiff.com and vcpic.com Please keep this copyright information, respect of, thank you!

|网站地图 手机端 公司简介 联系方式 版权所有@

GMT+8, 2026-4-3 15:25 , Processed in 0.022601 second(s), 22 queries .

Powered by Discuz! X3.5

© 2001-2026 Discuz! Team.

快速回复 返回顶部 返回列表