黄柏恒:大数据时代下新的“个人决定”与“知情同意”

来源:未知 作者:未知 时间:2018-09-12
简介:大数据时代新的“个人决策”和“知情同意”大数据技术的不断发展和广泛应用将带来社会的彻底转型。因此,公共生活的不同方面(包括日常活动,工作,政治)参与等都将不可避免地受到影响。 1此外,大数据技术也在挑战隐私和知情同意等固有道德概念的适用性,并给社会带来新的道德争议。 在最近关于大数据技术伦理挑战的文章中,Brent Mittelstadt和Luciano Floridi总结了今天讨论中涉及的十几个主要议题。包括大数据时代的知情同意和隐私的含义和可行性,数据所有权,大数据鸿沟,大数据可能带来的群体层面伤害,认识论在大数据伦理中的作用和重要性,所涉及的信任关系数据管理,大数据应用中学术和商业用途的区别,与大数据相关的知识产权问题,以及访问权限等。 2 Mittelstedt和Floridy详细介绍了上述关键主题,本文不再讨论它们。 本文重点讨论大数据技术带来的另一个道德挑战,即个人决策和知情同意如何成为大数据时代的新道德责任。 个人决策和知情同意已成为大数据时代的新的道德责任。这是基于大数据技术的开发和应用的背景条件。 我将这种背景条件称为“相互关联的条件”。 简而言之,所谓的“互联状态”意味着在大数据时代,人们在线和离线之间的关系是非常无缝的。互连状态不仅挑战了人们对隐私和知情同意的固有理解,更有可能这些道德概念将不再适用于大数据时代。 关于互联状态带来的规范性问题,国内外社会科学学者和信息伦理学者主要关注不同的对策;但他们的讨论忽视了相互关联的国家对某些日常(道德)行为的根本转变。因此,它也忽略了互联状态可能带来的新的道德责任。 本文将解释大数据技术如何模糊“自我行为”和“其他相关行为”之间的界限,并使用“个人决策”和“知情同意”。例如,说明这种转变如何使这两种行为成为新的道德责任。 一,“个人决定”和“知情同意”的原始道德意义本文旨在解释大数据时代个人决策和知情同意的道德转变,因此我们必须澄清这两种行为的本质及其原始性道德意义。 在日常的道德生活中,我们普遍认为,除非我们有压倒一切的理由,否则我们应该接受并尊重他人的个人选择;同样,我们普遍同意,如果我们的决定和行动会对他人产生重大影响,我们必须事先获得另一方的同意。 换句话说,在日常的道德生活中,我们通常将道德决策视为不足以否决其他人的个人选择或在未经另一方同意的情况下做出影响他人的决策和行动的决策。 但是,我们应该如何将上述行为理解为道德错误?为了解释上述行为的道德错误,最直接的人可以在自由主义传统中找到答案。 从自由主义的角度来看,个人决定和知情同意都是个人自治的表现。 因此,根据自由主义,上述行为的道德错误源于侵犯个人自治的价值。 我们可以更详细地分析“个人决定”的道德意义。 我们可以将个人决策分为两部分:(1)将个人决策视为自主选择,即不受他人干扰或其他外部因素干扰且不受限制的决策。3(2)个人决定应被理解为关注自己的决定,并且该决定不会对他人产生直接影响。 这种“个人决定”的定义有助于我们更清楚地理解其道德价值。 由于个人决策是基于人的自主权,如果我们接受像康德或密尔这样的自由主义哲学家具有自治的内在价值,我们就需要接受并尊重他人的个人决定;除非决定直接影响他人的福祉,否则我们不应干预。 4密耳的伤害原则清楚地表明了这种个人决定的道德意义。 人类有权单独或集体干预任何人的行动自由,唯一的目的是自卫。 也就是说,对于文明群体的任何成员来说,有可能施加权力来抵制其意志并被证明是合理的。唯一的目的是防止对他人的伤害......为了强迫合法的人,必须是对他。被阻止的行为会对他人造成伤害。 任何人的行为都只对涉及他人的社会负责。 在只涉及我的部分,他的独立性在权利方面是绝对的。 对于他自己,对于他自己的身心,个人是最高的主权。 5根据自由主义,因为理性的人最熟悉他们的偏好和兴趣,所以我们不应该干涉别人的个人决定。 因此,他们是为自己做出选择的最佳人选。 换句话说,个人的决定必然是理性个体的最佳决策(或最适合自己)。 与此同时,自由主义者指出,人们有权追求自己的生活方式,只有通过个人选择才能真正规划和实践自己的生活。 因此,自由主义者认为我们应该将个人决定视为一项基本权利。 一些自由主义者甚至建议人们应该享有做错的权利。 6当然,这并不意味着我们不能批评别人的不当选择;但如果这些选择只影响选择者本身,那么我们的批评或谴责只是决定是否要进行精明和谨慎的判断。这不是对道德或权利的道德判断。也就是说,只要我们的个人决定不直接影响他人,我们只需要对自己的个人决定负责。 当然,人们生活在社会中,国家决策将不可避免地直接影响公众的生活方式。即使简单的基本日常人际交流也会不可避免地相互影响。 自由主义者认为,自治的价值是不可侵犯的。 在这种情况下,国家政策和民间交流如何避免侵犯个人自治?在上述问题上,自由主义者认为我们可以通过人们同意的社会契约来解决这个问题。 7自由政治理论的传统将人民的同意视为政治合法性的根源。 8只要人们在自愿的基础上同意该制度,他们的同意就反映了同意者接受国家规则并接受国家制定的政策的同意。 9也就是说,只要同意是自愿的,同意者就自愿将(部分)决定的权力赋予政府,并将其决定视为自己的决定。 我们也可以用日常生活为例来说明同意的道德价值。 例如,如果我们的行为可能使他人处于危险之中,我们需要在行动之前征求他们的同意(或寻求他们的意见),否则我们的行为在道德上或法律上都是错误的。 这也是医学伦理学和实验伦理学在手术和研究之前都需要患者和受试者的知情同意的原因。 10经患者和受试者同意,不会被视为被迫接受手术或被迫承担实验风险;相反,他们会自愿接受并知道他们将承担这些已知的风险。 同时,由于他们自主地将自己置于危险之中,他们也对这些风险负责,并且不再将所有责任推给操作员或实验者。 我们还可以将知情同意视为可以通过有效的知情同意改变行为的可允许性的许可功能。例如,任意进入私人领地和拜访朋友有一个基本的道德区别;前者不是道德允许的,但后者是道德所允许的。 这两种行为无疑在表现上是一致的,但两者的区别在于后者得到了受访者的同意,也就是说,他愿意接受朋友的访问。 同样,在使用刀刺穿他人的身体并进行手术时,两者的行为可以视为没有区别,但两者的区别在于手术的操作有患者的知情同意给运营商。 (11)换句话说,知情同意也可以理解为接受他人对我们采取的行动的决定。 因此,这也应该被视为自治的一个体现。 上述讨论指出,个人决定和知情同意都是基于自治的价值,因此我们不可能做出个人决定或知情同意。 同时,由于“个人决定”或“知情同意”是基于自治的价值,我们只需要在决策和同意过程中考虑自己的利益,并考虑它是否会对他人产生重大影响,以及如果决定或知情同意有责任,我们履行了“个人决定”或“知情同意”的道德责任。 也就是说,在决策和同意不直接影响他人的情况下,个人不需要考虑其他人(除非他们自己决定这样做)。 其次,互联网的状态挑战“个人决定”和“知情同意”正如Mittelstedt和Floridy等学者所说,大数据技术对我们固有的道德价值观构成了巨大的挑战。 这些道德挑战不仅归功于大数据技术前所未有的成果,还因为大数据技术改变了我们与世界,社会和其他人的关系。 在这一部分中,我将解释大数据技术带来的“互联状态”概念的转变,并解释互联状态带来的个人决策和知情同意所带来的道德影响。 所谓的“互联状态”是指人们在线和离线之间的紧密无缝连接。我们可以在技术和本体方面进一步解释这种关系。 首先,我们可以通过技术操作的最低技术要求或技术的影响来了解互连的状态;我们可以将对这种互连状态的理解称为“技术互连状态”。对于铁路和互联网等大规模技术系统,必须大规模应用某些技术才能有效地实现其功能。一旦这些技术投入使用,社会中的个人将成为用户(或直接受其影响)。 通过激励人们成为技术的共同用户,这些技术以中间人的形式紧密联系着人们;或者,它们以一组用户的形式连接不同社交群组中的人。 大数据技术就是这样一种技术。 作为一种有效的大数据技术应用,它必须在水平和垂直方向上实现。 首先,大数据技术应用程序必须收集足够的数据,以发现可靠的模式和统计相关性,以创建新知识并帮助我们通过数据预测未来。 因此,大数据分析系统必须收集大量甚至不同的信息,作为挖掘模式和统计相关性的基础。 此外,大数据分析系统还需要连续数据输入以帮助系统进行重复验证,以确保数据挖掘的模式和统计相关性的准确性,并根据新数据的需要修改新数据系统。增强其预测能力。 更重要的是,随着大数据技术应用的成熟,它将能够预测那些从未偏好过去收集的数据的人的决策和行为;因为大数据系统只需要少量的个人信息,所以收集数据的人可以进行预测。 (12)在这种情况下,大数据技术将带来技术互联状态:个人通过大数据技术的应用和影响成为用户群的紧密联系成员。 技术互连对个人决策的影响尤为严重。 鉴于上述情况,大数据技术可以通过少量个人信息对个人决策和行为进行相对准确的预测;当大数据分析系统正式启动时,人们很难避免大数据系统为我们做出预测的可能性。 只要第三方(包括国家,公司等)有关于我们的少量基本参数,大数据分析系统就可以使用过去勘探的模式和统计相关性来进行比较和预测。我们可以将其视为:在大数据时代,除非我们能够避免所有数据收集,否则我们将无法拒绝成为大数据技术的目标;也就是说,我们无权选择退出和可能性。 同时,由于大数据系统将为我们提供基于过去收集的数据的选项,我们所拥有的选项将受到系统过去探索的模式和统计相关性的限制。这些有限的选择将不可避免地大大减少我们的空间选择。 。 (13)大数据技术带来的技术互联状态也将对知情同意构成挑战。 瑞典技术哲学家Sven Ove Hansson指出,任何大型技术工程项目都不可能也不可能获得知情同意。 (14)汉森认为,大型技术工程项目具有不同程度的影响。因此,我们不可能明确界定谁是大型技术工程项目的受影响人。在大型技术工程项目中,我们无法确定谁需要它们。知情同意。 汉森还认为,如果任何大型技术工程项目必须征得所有受影响人的同意,他们将面临另一个问题——否决权。 因为每个人的思想和兴趣都不同,实际上我们基本上不可能让每个受影响的人都同意这个大项目。 作为一种带来广泛影响的技术,大数据技术也面临着汉森提出的两个挑战:在大数据分析系统投入运营之前,我们应该同意谁?它是直接收集的数据。对象或有机会被预测的任何对象?即使我们能够确定谁应该同意大数据分析系统的应用,这些人能否同意?这些是获取信息的大数据技术应用程序。同意将不可避免地遇到的困难。 对互连状态的另一种理解是本体论。 借用Floridy,大数据技术是一种重新本体化的技术。 所谓的“重新制度化”,佛罗里达指的是:极端的重新设计,不仅重新设计,构建或构建系统(例如,公司,机器或其他人造)从根本上改变了它的内在本质,它的本体论。(15)当我们将我们的身份数字化和数字化时,我们将大大减少本体摩擦。 大幅减少身体摩擦的结果是更容易传达个人信息,这也使第三方更容易获得有关我们的信息。 (16)我们可以通过大数据系统支持的分析技术进一步说明本体互连状态。 分析技术根据人们的性别,人格特征,个人历史,社会地位等对人进行分类,并根据他们的类别做出不同的反应。 通过分析技术,大数据系统与单个类别交互,而不是与独立个体交互。 因此,我们的个人身份对于我们所属的群体不再重要,因为所有决策都是根据剖析技术的视觉效果为团队量身定制的。 基于大多数分析技术的分类程序和方法不是公开的,并且不够透明,分类器通常不知道它们属于哪个组。 在这种情况下,个人很难做出知情同意。 同时,由于分析技术的决策是针对群体定制的,如果这些群体的决策被认为是合乎道德的,我们需要得到所有群体成员的同意。 因此,大数据时代的一个主要挑战是我们如何能够获得所有小组成员的个人同意,以便针对某些特定群体的决策。 在个人之上,该群体已成为大数据时代的主要决策对象。因此,佛罗里达等学者认为,该群体也应成为道德反思的基本单位。 在大数据时代,我们不仅需要考虑个人同意,还需要考虑群体同意,集体同意和其他概念。 3.大数据时代的个人行为和决策:从个人利益到个人数据技术对个人决策和知情同意极为重要。正是因为它影响了我们固有的道德思想。指出在大数据时代重新思考自治价值的迫切性,一些学者提出我们需要扩大伦理考虑的范围,即我们需要考虑超越个人的群体作为考虑因素,并探索诸如“集体同意”和“集体私人”隐含权利等概念的可能性和可行性。我同意上述学者提出的主题是重要的研究方向,但我也认为上述研究方向忽略了一个非常重要的问题:决策或行为的道德责任会因为变化而从根本上改变的可能性。背景条件。 。 特别值得注意的是,今天的学术界和政策界专注于讨论如何保护个人权利或群体权利免受第三方(如国家,公司等)的影响,或者分析个人或团体的第三方。道德责任,但要明白,这些论点只关注外部干预和个人的侵犯,完全忽视了个人在大数据时代的道德责任。 我将展示大数据技术如何通过“个人决策”和“知情同意”从根本上改变行为的道德价值。 在我们谈论大数据技术如何从根本上改变行为的道德价值之前,我们首先可以提到大数据技术带来的道德困境之一,即Mittelstedt所说的“集体隐私”问题。集团隐私)。 (17)Mittelstedt意味着大数据技术所有者可以分析数据,对人进行分类并将其置于不同的特设组中,然后决定临时组。参考。 Mittelstedt认为,大数据技术所有者可以使用这些临时组来查看组成员的特征。 但是,由于此临时组的身份与个人身份的身份不同,前者由大数据技术应用程序组成,并具有共享身份。因此,现行立法没有适当的措施来保护个人免受第三方的侵害。临时组的影响(或临时组给予组成员的共同身份)。 Mittelstedt建议,由于个人和临时团体性质不同,目前保护个人隐私的制度不适用于临时团体。 同样由于临时团体对个人的直接影响,Mittelstedt认为我们需要其他法律和制度来保护临时团体的权利。 我简要描述了对Mittelstedt集体隐私的讨论,因为它反映了大数据技术将带来的新的道德困境,另一方面,它表明现有讨论忽略的固有道德责任是根本性的。转换的可能性。在Mittelstedt的讨论中,我们主要关注的是第三方的行为及其对临时团体(以及组成临时团体的个人成员)的影响。 Mittelstedt提出的集体隐私问题侧重于第三方与临时团体之间的关系,尤其是第三方对临时团体的道德(或法律)责任。 虽然Mittelstedt的观点明确指出大数据技术将带来这一新的道德患者群体(见图1),但他的观点并没有说明大数据技术的相互关联状态。它将改变某些行为的性质和结果,从而改变这些行为的道德意义。 正如我之前所说,在做出个人决定和知情同意时,我们只需考虑自己的利益,以及我们是否在决策和同意过程中对他人产生重大影响,我们对个人的决定和知情同意负责。完成个人决定或知情同意的责任。 换句话说,个人决定和知情同意是自利行为。 然而,由于Mittelstedt对集体隐私权的讨论已经迫在眉睫,通过大数据技术,个人决策和知情同意都会对其他人产生直接影响。因此,在大数据时代,个人决策和知情同意不是它应该被视为“自我约束行为”,它也是“其他相关行为”。 如图2所示,A的决策和行为将为他所在的临时组提供新信息,从而使拥有大数据技术的第三方更加了解同一临时组成员的想法和行为。 第三方也可以根据A提供的信息更改该临时组的预测,这将直接影响同一临时组的其他成员,如B,C,D,E。 也就是说,由大数据技术组成的团队作为中间人,A的个人决定不再仅仅直接影响他自己,而是对所有与他相似的人产生直接影响。 例如,假设A住在上海徐汇区,习惯在家乐福购物。他也是哈利波特系列小说的忠实读者。有一天,A决定买一辆新跑车。 他的决定为大数据分析系统提供了新信息,并帮助系统纠正了他所在的临时组的参数。 在参考这些新数据之后,第三方便可以对该临时组做出新的响应(例如向该组提供更多与跑车相关的广告等)。 新的响应不仅影响A,还影响B,C,D,E等,它们具有与A相同的特征。 此外,如果A的构成容易发生危险疾病,A的健康信息会纠正其所属群体的参数,因此使用该临时群体作为参考的第三方可能拒绝接受其他成员的医疗。临时组。保险。 可以看出,在大数据下,个别决策显然会对其他决策产生直接影响。 在大数据时代,我们的决策不再仅仅是“个人决策”。 借助大数据技术,“个人决策”转化为“个人群体决策”,不可避免地会对其他人产生直接影响。 由于这种变化,我们不能仅仅在做出“个人 - 集体决策”时对自己负责,但我们还需要考虑与我们相似或与我们属于同一临时群体的个人。 在这种理解下,个人决定转变为新的道德责任,我们有道德义务在做出决定之前考虑这一决定对其他与我们相似的人的影响。 知情同意也会出现同样的情况:假设A同意第三方使用大数据技术做出的决定,第三方可以了解更多关于如何使类似A(或属于A)的人成为临时成员小组)同意这个决定。 与个人决定一样,A对第三方的知情同意意味着具有类似特征的人将同意类似或类似的决定。 从这个意义上说,A的同意不仅代表了他的个人,而且代表了与他相似的所有人(或属于A的临时群体的成员)。 在生物医学大数据的背景下,这种知情同意问题更加明显。 如果A同意提供其生物材料用于研究或商业用途,他的知情同意将直接影响与他有相似生物识别信息的人。换句话说,生化医学大数据的影响超出了捐赠者本身,并扩展到像他这样的人。 知情同意不再局限于自身,而是一种对他人有直接影响的行为。 因此,与“个人决定”一样,我们在道德上有义务在知情同意之前考虑这种知情同意对我们类似的人的影响。 在大数据时代,由于大数据技术,我们的行为会发生很大变化,因此这些行为的道德意义已经发生了变化。 本文利用个人决策和知情同意,从“自利”转变为“涉及”,以说明大数据技术产生的互联状态带来的道德责任转变。 必须指出的是,本文旨在确定一个尚未在大数据伦理中讨论过的问题。即使我没有提供问题的解决方案,我认为学者忽略的问题是解决问题的最重要的一步。 本文中的讨论也可以看作是对“个人决策”和“知情同意”的挑战,即在大数据时代,每个决策或每个同意构成直接影响,所以永远不会是一个简单的“个人决定”或“知情同意”。 然而,即使上述讨论成功地表明在大数据时代不存在(或不再存在)个人决定和知情同意,我也相信“个人决定”和“知情同意”将留在我们的日常话语中。 因此,我们现在更需要的是明确指出大数据时代个人决策和知情同意所涉及的方面。 也就是说,在决定和同意之前,我们需要考虑决策和知情同意对与我们相似的人的直接影响。 或者,我们现在必须开始以超越个人的方式思考这些行为。 换句话说,上述讨论可被视为“个人决定”和“知情同意”的修正主义。 在大数据时代,我们有必要重新理解“个人决策”和“知情同意”的含义。 当然,我提出的修正主义并非完全没有问题。 特别是,假设上述个人决定和知情同意已从自身利益行为转化为另一方的行为,似乎无法在决策和同意中考虑所有受影响的人。——因为他们无法知道决定或知情同意。谁最终会影响它。(18)对于这个问题,我们可以在两个方向做出回应。 首先,我们可以强调决策和同意过程的重要性。 在正常情况下,我们也无法完全预测决策和行动的所有后果。 因此,我们应该考虑的不是我的决定是否会保证它不会对每个人产生负面影响,而是我是否考虑到其他人在决策或同意过程中的影响。 其次,我们可以考虑在技术层面上降低人们道德责任的难度。 国内外许多学者指出,我们可以通过重新设计和构建技术来改变人们的行为,使其更具道德性。 (19)个人决策和知情同意从“自利”到“与他有关”的转变也源于大数据技术的性质及其应用结果,因此我们也可以(重新)思考设计和操作大数据技术。在做出个人决定和知情同意时,增加我们考虑对他人的影响的可能性的方法。 例如,我们可以要求大数据分析系统包含一个提醒功能,提醒他们在做出决定或知情同意之前,他们做出的决定将对他人产生直接影响,并要求用户花一点时间思考它。 最后,上述讨论还可以为思考大数据治理提供一些方向。 由于目前的大数据治理方法主要以自治为核心价值,因此大数据治理的法律和制度难以实现本文提出的新的道德责任。 简而言之,只要当前的讨论仍然集中在保护个人(或群体)权利上,这种思维方式将完全忽视个人(新的)道德责任。 换句话说,我们必须重新思考大数据治理的起源,并使其更有可能履行与群体相关的道德责任。 本文中的个人决策和知情同意将在大数据时代带来新的道德责任这一观点可以帮助我们超越旧的思维框架。 [注意] 1对于大数据技术的不同影响程度,请参阅Viktor Mayer-& Kenneth Cukier,大数据:革命将改变我们的生活,工作和思考方式,伦敦: John Murray,2013年。2Brent Mittelstadt& Luciano Floridi,“大数据的伦理学:生物医学语境中的当前和可预见的问题”,科学与工程伦理学,Vol.22,No.2,2016,pp.303-341.3 Tom Beauchamp和James Childress,生物医学伦理学原理, New York,NY: Oxford University Press,2001,p。 58.4同上,第63-65.5页John Mill:《论自由》,徐宝义,北京:商务印书馆2007年版,第10页。 6关于“做错的权利”的讨论,请参阅Jeremy Waldron,“做错的权利”,道德,卷。 92,No.1,1981,pp.21-39; J. Herstein,'捍卫做错的权利',法律与哲学,Vol。 31,第3期,2012年,第343-365页; J. Herstein,“做出法律错误的合法权利”,牛津法律研究杂志,Vol。 .1,2014,pp.21-45。 7虽然哲学家对“知情同意”(或“知情同意”)的理解有广泛的共识,但对其细节的定义存在一些争议。本文不打算讨论知情同意的定义和内容。本文将简单地将“同意”(或“知情同意”)视为非强制性决定和对同意的充分理解。 有关知情同意的详细讨论,请参阅Nir Eyal,“知情同意”,斯坦福大学哲学百科全书,Edward N. Zalta编辑,2012年秋季。 8Jeremy Waldron,“自由主义的理论基础”,“哲学季刊”,Vol。 37,第147号,1987年,第127-150.9页有些学者指出,我们应该区分政权的政治合法性和政策的政治合法性。性别。 我同意这一说法,但基于这个问题不会影响我的论点,我不会讨论这个问题,参见Thomas Christiano,“政治权威基础上的正义与分歧”,伦理学,第110卷,第1期, 1999年,第165-187页; Kalle Grill,'自由主义,利他主义和群体同意',公共卫生伦理,卷。 2,2009年第2期,第146-157页。 10见道格拉斯麦克莱恩,'风险与同意:集中决策的哲学问题',风险分析,卷。 1982年第2期,第2期,第59页
澳门皇冠首页 |  澳门皇冠手机版概况 |  中心通知 |  中心讯息 |  中心成果 |  飓风论坛 |  人才培养 |  澳门皇冠登录动态 |  景德书讯 |  招生信息
您是访问本站的第 位嘉宾
版权所有:澳门皇冠手机版澳门皇冠首页登录✅✅ 电话:0731-88872593 地址:长沙市麓山路36号 邮政编码:410081