AI 是否拥有意识?从意识的定义说起( 二 )


她把 AI 系统大致类比为植物的区域——由于植物的行为方式似乎需要规划 , 并且可以做出一些看似需要内部和外部交流的事情 。 AI 系统似乎也有类似的行为 。
不过她也确信 , AI 系统作为一个整体 在未来会比植物或双壳类动物具有更大的意识潜力 。 尤其未来有更多受生物启发的神经网络的AI研究可能会产生更多与意识相关的架构、行为和认知系统 。
AI 是否拥有意识?从意识的定义说起
文章图片

图注:有研究已经表明 , 植物也具有意识和智能 , 它们也可以感知疼痛 , 并与环境很好地交流互动
那么考虑AI到底有无意识 , 该从哪些方面考虑证据呢?Askell 列出了四个类型的证据: 架构、行为、功能和理论 。

  • 架构证据是指系统的物理结构与人类的相似程度 , 例如大脑的结构要远比指头的更加像有意识 。
  • 行为证据是实体做出与意识、认知等相关的行为 , 例如可以意识到周围环境 , 对外部刺激的反应 , 或更复杂的行为 , 如言语和推理 。
  • 功能性证据考虑它的目标以及这些目标与环境的关系 。 例如桌子或椅子并没有真正受到环境的演化压力 , 因此它没有任何理由形成像老鼠对环境所拥有的的那种意识 。
  • 理论证据包括理论本身的连贯性、说服力等 。
现在研究心智的哲学家大致有两方面的理论倾向:一是包容派 , 例如认为原子都可以拥有意识的泛心派;二是机械主义派 , 他们否认非人类实体拥有意识 。 但无论是哪种倾向 , 都可以从上述的四种不同证据中讨论 AI 的意识问题 。
2
AI 是否有意识重要吗?
绝大多数 AI 从业者都不会将意识这一特性考虑进去 , AI 和意识似乎还只存在于某些科幻电影对未来的想象中 。 不过在安全、伦理、偏见与公正性方面 , 意识与 AI 的结合已在学术界和工业界中引起越来越多的重视 。
Askell 认为 , AI 具有现象意识 , 这就意味着它很有可能发展出伦理观 , 而这与它的创作者之间有莫大关系 。 尤其是当 AI 犯了错误或者受到「虐待」的时候 , 它的创造者应该承担一定的责任 。
Askell 讨论了道德伦理学中的两个重要概念:道德行为体(moral agent)和道德关怀对象(moral patient) 。 其中 , 「道德行为体」是具有分辨善恶对错能力、并可以承担后果的行为体 , 如成年人;而「道德关怀对象」则无法分辨善恶是非 , 即无法从道德上进行约束、一般不会承担后果的实体 , 如动物或者幼小的婴儿 。
道德关怀对象
Askell 认为 , 实体一旦拥有类似快乐和痛苦的 知觉(sentisent)就极可能成为道德关怀对象 。 而如果发现道德关怀对象(比如一只猫)受到 痛苦 , 而普通人却没有试图去尽道德义务减轻其痛苦 , 这是不合理的 。 她同时认为 , 现象意识是感知的必要条件 , 因而进一步 , 现象意识是成为道德关怀对象的先决条件 。
可能的争论是某些群体是否具有道德地位(moral status) , 或者是否拥有更高的道德地位 。 道德地位来自伦理学 , 是指一个群体是否可以从道德意义上讨论它们的过失 。 例如 , 多数生物具有道德地位 , 而无生命物体则没有 。 过分强调某一群体具有这一地位似乎在暗示这一群体更加重要 , 其他群体没那么重要 。 这就像「给予动物、昆虫、胎儿、环境等更多道德地位的论点一样让人担忧」 。
Askell 指出 , 帮助一个群体并不需要以牺牲其他群体为代价 。 例如 , 食用素食对动物和人类健康都有好处 。 「团队通常不会竞争相同的资源 , 我们通常可以使用不同的资源来帮助两个团队 , 而不是强迫在它们之间进行权衡 。 如果我们想增加用于全球脱贫的资源 , 将现有的捐款从慈善事业中拿出来并不是唯一的选择——我们还可以鼓励更多的人捐款和捐款 。 」

特别声明:本站内容均来自网友提供或互联网,仅供参考,请勿用于商业和其他非法用途。如果侵犯了您的权益请与我们联系,我们将在24小时内删除。