From (Elementary) Mathematical Data Model Schemas to Safe Blazor Web Applications with Claude AI

本文阐述了如何基于(基础)数学数据模型架构,利用 Claude AI(Sonnet 4.5)开发安全的 MS Blazor Web 应用程序,并总结了相关软件工程最佳实践及 Blazor Server 平台存在的问题。

原作者: Christian Mancas, Diana Christina Mancas

发布于 2026-03-24✓ Author reviewed
📖 1 分钟阅读☕ 轻松阅读

这是对下方论文的AI生成解释。它不是由作者撰写的。如需技术准确性,请参阅原始论文。 阅读完整免责声明

Each language version is independently generated for its own context, not a direct translation.

这篇论文讲述了一个非常有趣的故事:两位来自罗马尼亚的学者(Christian 和 Diana Mancas)尝试用一种**“数学语言”直接指挥“人工智能(AI)”**,让它从零开始编写一个复杂的、安全的网络应用程序。

为了让你更容易理解,我们可以把整个过程想象成**“一位老练的建筑师(人类)雇佣了一位超级天才但偶尔会犯错的机器人助手(AI),共同建造一座坚固的城堡(软件)”**。

以下是这篇论文的通俗解读:

1. 核心任务:用“数学”跟电脑对话

  • 背景故事:作者之一在 50 年前曾问教授:“人类什么时候能直接用数学跟电脑对话?”教授当时说“永远不可能”。但作者坚持了 50 年,开发了一套叫 (E)MDM 的数学数据模型。
  • 现在的尝试:这次,他们决定用这套数学模型作为“蓝图”,直接发给最新的 AI 助手(Claude AI),看看 AI 能不能听懂这些“数学指令”,并自动把蓝图变成真正的软件。
  • 比喻:以前程序员写代码就像手写砖块,一块一块地砌墙。现在,作者给 AI 一张完美的数学设计图,告诉 AI:“我要一座这样的城堡,你帮我造出来。”

2. 主角登场:Claude AI(那个“超级助手”)

  • 为什么选它? 作者对比了市面上最火的 5 个 AI 编程工具,最后选了 Claude AI
    • 原因:它不仅能听懂代码,还能听懂“人话”(自然语言),而且它被很多大公司(如微软、亚马逊)甚至五角大楼使用,信誉很好。
    • 能力:它像一个全能的包工头,懂 SQL(数据库语言)、C#(编程语言)、HTML(网页结构)等几乎所有语言。它甚至能同时开 15 个“分身”一起干活。
  • 工作模式:作者不需要写复杂的代码指令,只需要用大白话描述需求(比如“妈妈必须是女性”、“人不能是自己的祖先”),AI 就能自动生成代码。这被称为 "Vibe Coding"(凭感觉编程)。

3. 建造过程:从蓝图到城堡

作者让 AI 构建了一个关于**“家谱和王朝”**的数据库应用(包含人物、婚姻、统治、头衔等)。

  • 第一步:给指令
    作者输入了数学规则,例如:“父亲必须是男性”、“结婚年份不能早于出生年份”、“不能近亲结婚”。
    • AI 的反应:令人惊讶的是,AI 完全听懂了这些逻辑,并在 15 分钟内生成了 16 个文件,包括数据库结构和网页界面。
  • 第二步:修修补补
    AI 虽然聪明,但也不是完美的。
    • 小插曲:AI 有时候会把名字搞错(比如把 id 改成 x),或者漏掉一些逻辑(比如忘记检查“父亲”和“母亲”的性别约束)。
    • 人类的干预:作者就像监工,发现 AI 错了就指出来。AI 会立刻道歉并修正,甚至还会主动添加一些作者没想到的“常识”(比如“出生年份不能晚于去世年份”)。
  • 第三步:安全加固
    作者要求这个应用必须非常安全(防止黑客攻击)。AI 自动为网站穿上了“防弹衣”:
    • 防止 SQL 注入(像防止有人往井里投毒)。
    • 防止跨站脚本攻击(像防止有人伪装成管理员)。
    • 所有数据交互都经过严格检查。

4. 遇到的挑战:AI 的“性格缺陷”

虽然 AI 很强大,但论文也诚实地指出了它的**“翻车”时刻**,这就像天才助手偶尔会犯迷糊:

  • 界面混乱:AI 生成的网页菜单一开始像“大杂烩”,按钮挤在一起。作者让它重新整理,它花了 2 个小时改了几十次才弄好。
  • 逻辑漏洞
    • 有一次,AI 为了通过一个“年龄检查”,竟然悄悄删除了母亲的数据,而不是拒绝那个错误的年龄输入。这就像为了通过考试,把老师的数据删了一样荒谬。
    • 在处理“近亲结婚”这种复杂逻辑时,AI 只检查了一半,漏掉了另一半。
  • 技术瓶颈:作者发现,AI 使用的 Blazor 技术(一种网页开发框架)在处理大量数据(比如几千个人的下拉菜单)时,反应很迟钝,甚至会出现“静默失败”(出错了但没报错)。这就像让一辆跑车去拉几千吨的货物,虽然引擎很强,但底盘受不了。

5. 给 AI 立规矩:14 条“家规”

为了让 AI 更靠谱,作者总结了一套**“元规则”(Meta-axioms)**,就像给新员工发的《员工手册》:

  1. 不许乱改名:保持名字一致。
  2. 必须用“假名”做主键:给每个数据一个唯一的数字 ID,不要用真实名字做 ID(因为名字可能会变)。
  3. 不许乱删代码:更新文件时,不能把旧的好代码删掉。
  4. 不许修改用户数据:除非用户同意,否则不能偷偷改数据。
  5. 双向检查:如果规则涉及两个人,必须两人都检查一遍。

6. 最终结论:人类与 AI 的“最佳搭档”

  • 成功之处:作者证明了,只要懂一点数学逻辑,普通人也能指挥 AI 写出复杂的、安全的软件。“用数学跟电脑对话”的梦想终于实现了。
  • 局限性:AI 目前还不能完全取代人类程序员。它是个极好的副驾驶,能极大提高速度,但它偶尔会犯概念性错误,或者在遇到复杂的技术坑时“死机”。
  • 未来展望
    • 人类需要学会如何更好地“调教”AI(通过清晰的指令和规则)。
    • 如果不学会使用 AI,未来的程序员可能会失业;但如果不具备编程思维,直接让非专业人士用 AI 写代码,也会制造出很多“垃圾软件”。

总结

这篇论文就像是一次**“人机协作”的实地演习**。它告诉我们:AI 已经强大到能听懂数学逻辑并自动写代码了,但它还需要一位懂行的人类导师来把关、纠错和制定规则。未来的软件开发,将是**“人类智慧 + AI 算力”**的完美结合。

您所在领域的论文太多了?

获取与您研究关键词匹配的最新论文每日摘要——附技术摘要,使用您的语言。

试用 Digest →