机器学习系统 • 提问
发布于 2021-04-04 16:20
算法(Workload/Model)的变化,对系统的影响巨大,是否大模型大算力这一路线是未来算法发展的主旋律?如何考虑可能来源于算法的降维打击或者阶跃性发展? 未来的AI计算模式到底是什么样的,是更加渴望特定模式下的高算力?还是会慢慢回到更加通用的处理上? 算法影响软硬件系统的同时,软硬件系统也在影响算法,未来这种关系会如何发展?
Tensorflow与Pytorch,还是...? 未来机器学习框架谁主沉浮? 机器学习框架是在AI热潮中出现的,大大提高的了AI系统的生产力。但是它的存在本身是否合理? 是否以专门的编程语言来作为起点会是更“优雅”的实现方式?
(针对上个问题)深度学习这一领域计算模式更简单,确定性更强,上升到要用编程语言与编译技术来解决问题是否是“大炮打蚊子”,能产生什么价值?
机器学习编译器也是目前软件栈中研究和实践非常热的领域,其作用,关键技术和未来的发展也有很多话题。
ML框架与编译器与传统编译器差异在哪儿?ML编译器最核心的问题是什么?
未来的ML编译器在软件栈中的位置是从属还是会成为核心?器件学习框架和编译器的关系会怎么发展?
为什么对MLIR的评价颇具争议,它到底想干什么?适合干什么? ML框架和编译器作为技术热点,是否会扩展到更多领域,玩出新花样?
是否有可能确定一个统一的软硬件接口?理想中这个接口应该是什么样子?
AI芯片架构是否会收敛?是否需要自己的编程语言及编译器/框架?一颗新架构芯片出现之后如何高效地构建软件栈? 从ML编译器的角度看芯片架构的合理性,什么是对编译器友好的架构?
大家都在谈的软件定义架构/硬件/芯片如何落地?
最后还有就是一些更大(生态)的问题(参考“聊聊芯片技术趋势”):
从不同层次出发(芯片,算法,系统等),各类公司的生态演进路线如何? 封闭生态(系统厂商垂直整合)和开放生态如何竞争和共存? 我们讨论系统的时候,有个预设,就是芯片开发周期长,代价高。假设硬件设计方法改变(硬件敏捷设计,chiplet模式,新的产业链合作模式,等等),机器学习系统的设计优化以及生态会如何发展?
人工智能芯片技术基础
人工智能芯片技术进步
人工智能芯片产业发展
人工智能芯片初创公司
人工智能芯片评测对比
科技巨头的芯片尝试
从学术会议看人工智能芯片
基础芯片技术
题图来自网络,版权归原作者所有
本文为个人兴趣之作,仅代表本人观点,与就职单位无关
本文来自网络或网友投稿,如有侵犯您的权益,请发邮件至:aisoutu@outlook.com 我们将第一时间删除。
相关素材