文章图片
- 让我惊到的点在于 , 我突然意识到 ,当我(用户)在尝试自己写歌词时 , 必须得自己营造(酝酿/创造)出一个氛围——一个自己的故事、心情和想表达的东西 。 在之前的互联网产品里 , 我从来没有过这样的体验!
- 之前我们写文章或拍视频 , 往往是自己先已经构思好了一个内容或想表达的主题 , 然后用工具去实现 , 但是 , 在小冰岛的这个体验细节里 , 用户很可能被激发出他自己之前并未设想好的想法或情感……
1、 用户被“trigger”出创意 。
2、 通过AI辅助 , 用户能实现自己原本不具备的能力(比如这个例子中的“唱歌好听” , 以及生活中的某些医疗器械能增强人的肢体能力) 。
3、最后 , 人从AI生成的结果中 , 挑选或创造一个最能表达他自己想法和感觉的 , 作为他自己的作品!
以上都是To C方向的案例 , To B的 , 有吗?
3
1个To B方向的案例
在文章《RPA爆火这两年:AI乎?非AI乎?| 甲子光年 》中提到
- 某电网公司已经构建了 自己的RPA流程设计师团队。 他们每个季度给来也科技发订单 , 获取来也RPA软件的license , 而后 自行基于内部场景挖掘流程 , 根据实际情况调整、实施、扩容。
- 来也科技联席CEO兼总裁李玮:RPA真正的魅力就是 一定要让客户内部学会使用产品 , 而不是原厂持续交付 。
相关的3个伦理或AI认知问题
如果这种“ AI辅助+人工抉择”被从业者和用户广泛认知并接受 , 那么以下几个问题 , 至少都会部分的被fix 。
1、权责利划分?
AI负责提出1个或多个建议(备选项) , 用户自己做抉择(是否采用、采用那个) 。 那么 , 很清晰的 , 最终这个成果 , 所有权归用户(因为是用户赋予了其实际意义 , 否则会被丢弃掉)、相应的利益和责任 , 也都由用户自己承担 。
2、AI是否需要完全实现感性能力/价值观体系?
部分需要 , 但并非100%需要(也实现不了) 。 因为每个人的感性/情感/价值观是不同的 , 最终适合某个用户(或他所需要)的东西 , 是不一样、甚至不可控的 。 即然如此 , 就让用户自己抉择好了 。
3、AI必须实现“可解释性”?
部分需要 , 但并非100%需要(也实现不了) 。 类比来说 , 我们对“大脑的可解释性”了解还远远不够 , 也没有不让用大脑吧?我们听从某位领导的意见时 , 也不可能强制要求ta给出完备的“可解释性”说明(或必须让每个人都理解)吧?我们自己做很多事、说很多话 , 很多时候都做不到较高水准的“可解释性”吧?即然我们对人类自己和很多自然现象的可解释性都没有苛责 , 为什么一定要强求AI必须完全可解释呢?
一部分原因在于 , 有些人希望 规避自己的责任(一旦AI带来生命财产损失 , 谁来负责?公司?政府?) , 另一部分原因在于 ,人类还没有适应AI这个与自己共生的新物种(或者说“新生活方式”) , 一旦经过较长时间的磨合 , 人性本身必然会慢慢接受的(达到心理、生理、物理的平衡) , 就类似现在西方国家可能已经部分接受了新冠病毒 。
最后的话
“ 由用户来完成AI产品设计的最后一公里” , 会让AI产品体验更加 落地且有效; 你还留意到哪些 类似的案例吗?欢迎到 评论区或 后台来交流分享:)
特别声明:本站内容均来自网友提供或互联网,仅供参考,请勿用于商业和其他非法用途。如果侵犯了您的权益请与我们联系,我们将在24小时内删除。
