微软semantic-kernel(SK)团队发布了一篇博客文章:Early Lessons From GPT-4: The Schillace Laws[1] ,微软的CVP , Deputy CTO Sam Schillace 根据他在GPT-4方面的经验制定了使用LLM创建软件的九项原则,称之为Schillace Laws of Semantic AI[2]https://learn.microsoft.com/zh-cn/semantic-kernel/howto/schillacelaws。

在大模型LLM 时代确定一个开发实践定律的人肯定是大有来头,因此我去找了他的资料学习了一下,他有着发现了不寻常的经历,早在2004-2006年他自己创业,使用c# 构建的产品叫 Writely,也就是Google docs的前身, 2006年被Google收购了,他们当时的团队有4人,从Writely到Google Docs的转换的故事 如何避免软件工程中最昂贵错误的发生[3]:

  在今年初,我与Sam Schillace会面时也讨论过有关重写的问题,它是Box的技术副总裁,前Google Apps负责人。我向他提了一个问题,“你们工程团队曾遇到过的最昂贵的错误是什么?”

他的回答是,“尝试从零开始开展代码重写。”

  Schillace的创业公司在2006年被Google收购了,他们当时的团队有4人,产品名字是Writely即Google Docs的前身。在他们发布了一个试验性的C#原型作品后,用户数很快就突破了50万。加入Google后,他们收到的第一个商业任务是进行项目迁移,从而充分利用Google的架构体系以实现高容量和高扩展性。每天用户数仍在快速增长,而他们也开始意识到之前所写代码的扩展瓶颈。

  我还在Google工作时,我知道Google的软件堆栈是不支持C#的。所以当Schillace说到这里时,我很自然地问到,“当你们进行从Writely到Google Docs的转换时,你们是不是只能从零开始?”。

  Schillace的回答是,“是的。”当他们开展重写工作时,有个合伙人提出边转换边重写,因为如果进行彻底推翻,将极大增加工作量。Schillace并不认同。最终,他说服团队只设置一个非常有限的重写目标,延后其它更多的目标工作。他们定下一个清晰的目标先把系统在Google数据中心运转起来,然后再整合12种不同的Google技术。他们花费了一个星期来调试并最终编译成功。调试过程中,很多错误是由于Java和C#不同的语义表达引起的,例如==双等号的不同含义。

  “这真的真的非常痛苦。”Schillace说道。继续奋战12个星期后,他们最终完成了一个“令人惊讶的,奇怪的,晦涩难懂的”代码库。但它也最终在Google数据中心里成功运转了,这也创造了一项纪录——被收购后最快适应Google架构的转换项目。如果他们不是摒弃了过多的目标,也许还不能这么快就完成。同时如果他们把更多精力放在代码质量上,时间也会用得更多,因为需要修正一堆堆的正则表达式。相反地,他们的目标是使Writely先尽快运转起来。

这样的故事是不是很熟悉,这样的事情在中国也是不断的发生,将C# 写的软件翻成他们喜欢的语言来编写。这是最昂贵的错误:尝试从零开始开展代码重写。

Sam Schillace 在微软领导创建了semantic-kernel项目,选择使用C# 构建。当然以后肯定是会支持各种语言的,目前已经预览支持Python。

相关链接:

  • [1] Early Lessons From GPT-4: The Schillace Laws: https://devblogs.microsoft.com/semantic-kernel/early-lessons-from-gpt-4-the-schillace-laws/

  • [2] Schillace Laws of Semantic AI https://learn.microsoft.com/zh-cn/semantic-kernel/howto/schillacelaws

  • [3]如何避免软件工程中最昂贵错误的发生: https://kb.cnblogs.com/page/522554/

Schillace 定律 背后的 Sam Schillace相关推荐

  1. 生活中的定律——墨菲定律

    凡是可能出错的地方,就一定会出错. Anything that can go wrong will go wrong. --爱德华·墨菲,来自美国空军的一位工程师上尉. 墨菲定律 或许你之前从未耳闻墨 ...

  2. 梅特卡夫定律:社交网络的滚雪球效应

    关于互联网有三条重要的定律:摩尔定律.吉尔德定律和梅特卡夫定律.其中摩尔定律是流传最广泛的,相信很多人都听过:价格不变的时候,集成电路上可容纳的元器件的数目,每月18个月便会增加一倍,性能也会提高一倍 ...

  3. 捍卫数据真实性的卫士-本福特定律

    互联网内容很难分辨真伪,一旦发生一些集中性的事件,无论是吹水公众号,工作不饱和的程序员以及一些不怀好意者都喜欢蹭热度,博流量,这些人对于数据,大数据均有理解和掌握,但普遍过于 时尚 ,就事论事便缺乏跨 ...

  4. 招聘优秀开发者的7个简单原则

    本文来源于我在InfoQ中文站原创的文章,原文地址是:http://www.infoq.com/cn/news/2014/01/dont-let-other-technical-debt Dan Ty ...

  5. 多核之后,CPU 的发展方向是什么?中科院计算所包云岗提 20 点新思考

    作者:包云岗 在知乎上有一个问题:多核之后,CPU 的发展方向是什么? 中科院计算所研究员.智源学者包云岗针对该问题进行了详细回答.智源社区将包云岗研究员的回答内容转载过来,供读者参考. 包云岗,中国 ...

  6. 多核之后,CPU 的发展方向是什么?中科院计算所包云岗详细解读

    来源:知乎 作者:包云岗 包云岗,中国科学院计算技术研究所研究员.博士生导师.中国科学院大学教授,中国开放指令生态(RISC-V)联盟秘书长,从事计算机体系结构和开源芯片方向前沿研究,主持研制多款达到 ...

  7. matlab谢尔宾斯三角_城市的公式

    膨胀的城市 年轻时向往大城市的繁华,就像年老时向往故乡的恬静一样,很难说清为什么我在 18 岁时渴望来到北京读书,也很难说清父母为什么会忍住不舍极力将自己的独生子送去大城市,但无数的家庭,就在这说不清 ...

  8. 网络经商22条赚钱法则

    作者:韩亚飞_yue31313_韩梦飞沙 QQ:313134555 网络经商22条赚钱法则 目录 前言...2 一.领先定律...3 二.品类定律...5 三.心智定律...8 四.认知定律...10 ...

  9. 因果性与因果模型 | 中国人民大学哲学与认知科学明德讲坛

    来源:中国人民大学哲学与认知科学明德讲坛第25期<因果性与因果模型>文字稿 主持人:袁园   嘉宾:张双南.李伟.朱锐   主办:中国人民大学哲学与认知科学跨学科交叉平台.服务器艺术  协 ...

最新文章

  1. 如何用 Python 分析 14 亿条数据?
  2. FCKeditor使用详解
  3. jquery之empty()与remove([expr])区别
  4. app 注册防刷 php,手机验证码设计和防刷制度
  5. find: paths must precede expression(转)
  6. GMIS 2017大会戴文渊演讲:构建AI商业大脑
  7. 查看MongoDB索引的使用,管理索引
  8. 深度学习之卷积神经网络 ResNet
  9. python实现二分法查找_python二分法查找
  10. Struts2框架的概念及使用方法
  11. matlab 脉冲压缩算法,雷达脉冲压缩matlab
  12. 2018经济寒冬,2019你凭什么活下来?
  13. micro hdmi引脚定义义_臻实力芯定义:京东AMD笔记本电脑双11开门红
  14. python编写的动物识别专家系统_基于Python的动物识别专家系统
  15. 怎样将github上的代码下载到本地并运行?
  16. Word Vector的综述
  17. vue连续点击重复路由报错解决方法
  18. IP分片和TCP分片的区别
  19. 计算机对儿童的影响英语作文,儿童是我们计算机的影响英语作文
  20. 一文搞懂产品中的搜索设计

热门文章

  1. 一个人赶着鸭子去每个村庄卖,每经过一个 村子卖去所赶鸭子的一半又//一只。 这样他经过了 七个村子后还剩 两只鸭子,问问他出发时共赶多少//只鸭子?经过每个村子卖出多少只鸭子?
  2. java一个人赶着鸭子去每个村庄卖,每经过一个村子卖去所赶鸭子的一半又一只。这样他经过了七个村子后还剩两只鸭子,问他出发时共赶多少只鸭子?经过每个村子卖出多少只鸭子?
  3. 安装程序的安装界面为乱码的问题
  4. 酷睿i7 12700h参数怎么样 i712700h相当于桌面级什么cpu
  5. STM32F302简介
  6. Luogu4147 玉蟾宫(单调栈求解最大子矩阵)
  7. nginx文件服务器html美化,ngx-fancyindex,nginx文件浏览美化插件
  8. vue过渡动画之——过渡类名
  9. OpenOCD的调试
  10. iq卡root在这边怎么搞,iqoo的root