2007年iPhone把智能手机的触控时代给带出来了,2010年iPad又重新定义了平板的交互方式。苹果在移动设备上挺大方地用触控技术,但在Mac这边,公司还是坚持用触控板、键盘和鼠标这种精确输入的体系。其实两边就是在走不同的路,macOS专门用来搞生产力,优化键鼠的效率;iPadOS就主打触控优先,像手写和手势这些自然交互方式。 Magic Screen这个第三方配件现在出来了,是通过外接一个磁吸的触控面板,给MacBook加上了触屏操作的功能。它用USB-C线跟电脑连起来供电传数据,原理就是在笔记本屏幕前面装个可以拆下来的触控板,能直接用手指或者触控笔输入。把板子拆下来以后还能当个独立的绘图板用。 虽然技术上没啥特别突破性的地方,还得依赖线连上去,但它的意义在于:通过第三方的路子,把苹果官方一直没在原生产品里加的功能给实现了。这种做法引起了大家对“桌面电脑到底应不应该全面变成触摸屏”的讨论。 传统的桌面操作系统比如macOS和Windows,界面设计一开始就是为了指针设备优化的。菜单栏、窗口控件这些东西通常都比较小,得靠光标的高精度来定位。但触控操作用手指点的话精度肯定没那么高,操作起来可能会挡视线,时间长了手还会累。这两种操作方式的底层逻辑差别挺大的。 微软以前在Windows 8和Windows 10上试过把两种交互方式捏在一起搞个“统一系统”,结果发现界面元素放大了鼠标不好用了,传统应用在触摸屏上体验也差。这种融合反而把用户体验给弄分裂了。 现在的设备发展趋势是更细分场景了。不同形态的设备不是互相代替的关系,而是根据大家用的场景、干的活儿和习惯来形成一个互补的生态。像Magic Screen这样的配件给特定的使用场景多了一种选择。 不过技术分析也说了,这种外接触控方案没法从根本上改变macOS的交互逻辑。像Final Cut Pro、Xcode、Logic Pro这些专业软件界面很复杂控件也很密,都是按着指针操作设计的,触控只能当个辅助手段用。 苹果公司对触屏Mac的态度挺谨慎的,主要是想守住不同交互方式的专业性。技术发展不一定非得什么都往一起堆才好,有时候设备特性的专注和深化反而能创造更大的价值。 未来的计算设备演进可能会更看重根据场景来优化体验而不是单纯加功能。怎么在鼠标、触控这些不同的模式间找到平衡点?这还是整个行业都得好好琢磨的事。