2024/8/4
量子力学
在牛顿力学中,只要知道一个物体起始的速度,质量和受力情况,就能计算出这个物体在未来某一刻的具体位置。未来发生的一切早已被起始位置确定好,比如你的人生从宇宙诞生那一刻就已经被设定好了。
这叫机械决定论,也叫宿命论。
但是电子绕着原子核的运动也许是随机的。电子运动否定了机械决定论
所有微观粒子的位置都是随机的。(所以说这样是不是又可以制造出一个个性签名来?)
是由微观粒子组成的,所以人可以逆天改命。
「我们是智慧生命体」(
一个光子所能传递的能量就是微观世界中最小的单位。
对能量的传递并不连续,而是有间隔的。
叫做能量量子化。
只要是不可细分的概念都叫做量子化。
光粒子的本质更像一个波。所以先要默认所有的粒子都是波。
波的能量往往会聚集在某个固定的空间尺度上,形成波包。波包越聚集就越像个例子,这也可以体现出波粒二象性。
事实上,测不准原理正是由波粒二象性所造成的。
海森堡认为粒子的位置和动量信息不能够同时精确测量。位置测量的越精确,动量就越不精确,这主要是由于测量仪器发射的粒子所造成的。
但是当代的量子理论不认为这是正确的测量仪器固然会被测量干扰进行干扰,但这不是主要原因。主要原因是粒子的本质就是波测量波的精确位置相当于测量绳板产生的波动位置,这是毫无意义的。因为波就不可能存在完美的物质,测量动量也是这个道理,粒子不存在完美的动量。
“测不准原理。”这个名词会误导大众,让人误以为是人类科技手段有限造成的测不准,实际上则是因为微观粒子的内禀属性。。现在被改成不确定性原理的叫法(内禀可以用来形容一个事物或个体内在的性质、品质和特征。在生物学、心理学、哲学、宗教、社会学等各种领域都经常使用内禀一词来描述内在的特征或本质。)
微观粒子还有一个十分普遍特性,就是态叠加原理。是我们常说的量子叠加,比如电子的自旋既是上旋又同时下旋,这种匪夷所思的现象也令薛定谔困惑。
所以薛定谔把微观转化到宏观方向,就是那只既死又活的猫。
之所以会导致量子叠加态消失,因为测量仪器要发射出某种粒子探测。被测量的粒子原先的叠加态会因为这些粒子的干扰而消失,这就是测量坍塌效应。
只要我们不测量那么波包本身和这条波是一个整体,所以在空间的位置是叠加在一起的,粒子又在这儿又同时在那儿,可以同时存在于多个位置。就是叠加态的体现。
这种角度理解量子纠缠。两个纠缠粒子通常是同一条波,只不过测量行为会导致这条波坍塌出两个波包。这两个包包在没有测量之前本来就是共同叠加态的波测量会导致叠加态消失,变成两个确定的波包。
但是作为观察者的我们好像这两个例子可以无视空间而同时作用。是量子纠缠的超光速现象。
本质上来说两个纠缠粒子本身就是同一个粒子,所以对一个粒子的测量其实也就是对另一个粒子的测量,所以量子纠缠必然是同时发生的,并不存在什么实质上的物质运动,所以不能传递信息和能量。
「潘建伟教授对叠加态的解释」——睁开眼睛看一看会对他的结果有影响,没有办法把这种影响消除到可以忽略,这种影响是巨大的。所以观测者的行为可以影响体系的演化。
宏观世界中——在我们的日常生活中,总是会有这样一双眼睛去看着这个飞机。
微观世界中的一些分子是会逃脱我们的监控。所以它可以处于量子叠加,我们的宏观世界没有这种情况,而微观世界现象比比皆是。
量子叠加才是宇宙中最普遍且最正常的现象。我们生活在叠加态已经坍塌过的宏观世界,基于宏观世界归纳出的牛顿力学是先入为主的,所以我们才认为非叠加态才是正常的。(王阳明所说——此花与汝同归于尽。)
观世界中会遭受到各种干扰,比如宇宙中无处不在的光子会撞击宏观物质干扰的本质相当于测量坍塌效应,导致宏观世界的叠加态都坍塌掉了,而呈现出确定的状态。
最直接的证明是空气分子的叠加态和分子尺度上的量子纠缠。比原子大很多的物质,只要不被其他物质干扰,依然会出现叠加状态。
单个光子是无法克隆的。
包的性质是叠加态的,如果要复制这个光子的状态,就得把光子一分为二,但是光子是量子不可以再分,所以这个方法被毒死。第二个方法是测量这个光子的信息,根据信息重新还原成一个相同的光子,但是由于测量坍塌效应,一旦测量会导致光子原来的叠加态消失,所以我永远无法得到光子原来的叠加状态。
传统的电磁波通信是发射频率高低不同的大量光子,光子的频率高低代表零和一,所以窃听者可以在光子传递的过程中偷走少部分的光子,通过光子的频率高低解读出通信的内容。
而量子通信是利用单光子不可克隆原理进行量子密钥发放,理论上可以做到信息的绝对安全。
窃听者想要窃听,要么偷走光子,要么测量光子。而单个光子一旦被偷走,那直接就被发现,这样就证明了传递信息的过程已经被窃听,干脆就不发送信息了。如果窃听者只是窃听的话会引发测量坍塌效应也会被发现,只要量子通信被窃听就一定会被发现。
量子通信最大的贡献就是得知通信过程是否被窃听,而不是阻止窃听行为。
2024/8/5
编程通识
001
底层思维
看一遍就可以从不知道变为知道,持续的在学习过程中释放价值。投入产出比很高。
图灵机虽然不能把所有事情都解决掉,但已经是我们现在能想到的通用计算机解决方案的上限了,所有其他的方案要么是不如他,要么和他一样。
凡是和图灵机一样的方案都叫做图灵完备。比如拉姆达演算法,元胞自动机等等。
真实的需求翻译成有软件可以执行的过程叫做建模。
如果选择了不同的通用计算机,在数学世界里的基本模块是不一样的。其中图灵机的基本模块就是数据加指令。
图灵机的数据加指令相当于一个套路,遇到了问题先想问题哪些部分可以作为数据,哪些部分可以作为指令,先把问题拆解之后再说。
任何不同的地方都可以投射成数据。
可以投射和应该投射是两个问题。
所以说不需要区分不同的数据类型吗?万一不同的东西投射成同一个数据类型怎么办呢?不同的东西投射成数据之后,那个数字应该是多少?可以随便来的吗?
002
拉姆达演算法 构建底层的逻辑。
元胞自动机最早是冯诺依曼提出的
无法被规约的运行规律 优胜劣汰
图灵机和拉姆达他们都需要极大的计算量,相当于有一个上帝的手在把控着。指数级别的增加
并不能解决演化问题,就相当于用计划经济去解决经济问题一样,最后只能捉襟见肘。
冯诺依曼瓶颈。
元胞自动机个体和群体永兴存在鸿沟。
神经网络
宇宙之中有量子纠缠,在普朗克尺度之下,宇宙到底怎么连接我们不清楚。
图灵机和拉姆达演算法他们的困境就是来源于计算和储存中心化,想要解决必须要中心化给去掉。
电脑芯片的概念被提出来,电脑芯片和现在处理器完全不一样,它有许许多多存算一体单元所组成。
忆阻器
像个神经元,神经元会记忆之前的激活状态,越是被经常激活的神经元,包裹他的髓鞘就会越厚,髓鞘越厚,神经元就容易被激活。
元胞自动机的非线性关系无法预知,只能把它当成一个黑盒子,压根不打开它,我们只需要知道输入和输出,然后去判断输出的结果和我们预期相差了多少,然后根据相差了多少去调整输入的信息。
所以这相当于一种学习。
。这就是一个相当于深度学习一样的算法,先虚拟的搭建起神经网络来比如需要有多少个隐藏层,隐藏层中有多少个神经元?层与层之间如何连接?是卷积加池化还是全连接,选择什么样的激活函数,什么样的损失函数?
还需要实现学习的过程,也是那个反馈的回路。反馈的回路闪电网络里面实现的就是反向传播算法,是随机梯度下降法呢还是牛顿法呢或者是adam方法呢?
过拟合处理
更靠近泛化的这一边还是当前的例子呢。
深度学习是一个非线性的演化黑盒子。
类脑芯片
003
软件工程为什么比其他工程项目复杂性更高?复杂性不是说开发和解决问题的维度。软件开发具有着内在的属性。软件工程的复杂性在于它是来自于软件工程的三重耦合。功能和功能之间耦合,人和人之间耦合,过去和未来之间的耦合。
1.功能和功能
如何切割划分子系统?
软件开发的协作中。避免有bug协作天然具有猜疑链,会影响着开发团队的协作效率。
2.解耦可以降低项目的复杂性,让我们更容易理解开发实现相当于在两个板块中获得更多道路的联系。
耦合 在解耦和建立偶联之间如何选择?培养一种取舍的能力。考虑的是更高的开发效率还是更高的性能?
004
计算机解决问题可以分成三个重要环节。
一 建模:如何把现实问题用计算机的方式给描述出来
(多样性)
二 算法:选择能被计算机去执行的描述方式。
(创意和灵感,找到合适的算法,我现在基础算法比较多,很少需要从0~1的创造,更多的是对原有算法的优化和整合。)
三 对算法分门别类,分析它们的运行情况,对算法进行复杂度分析。
(数学分析能力,把算法过程进行量化。相当于第二个环节的补充。)