首页 >> 自然挚友 >>11 >> 唐红丽:维护人—自然—社会系统协调发展
详细内容

唐红丽:维护人—自然—社会系统协调发展

【编者按】 

科技与伦理:“能做什么”和“应做什么”的博弈

   近日,英国《独立报》报道,日本病毒学教授河冈义裕利用H1N1流感病毒成功研制出一种超级病毒。据称,这一病毒一旦泄漏,人类将毫无抵抗能力,恐酿成大灾难。英国皇家学会前主席罗伯特·梅教授认为,这一工作完全疯狂、极度危险。哈佛大学教授马克·利普西奇也对此表示担忧,“即便在最安全的实验室中,这也是危险行为”。 

  这一事件再次引起人们关于高新科技发展背后伦理问题的激烈争论。近一个世纪以来,科学发现与技术发明极大地改变了人类的生产及生活方式。高新科技一方面成为各国创新驱动发展的动力和国际科技竞争的焦点;另一方面,也因其对自然、人和社会的可塑性具有未可预见的深远后果,使伦理、法律与社会问题研究始终伴随着科技研究进程。如何协调高科技发展与人和自然的发展规律?高新科技与伦理之间究竟该保持何种关系?本期“学海观潮”邀请多位学者对此进行深入解读。

  现代人一方面受益并依赖于高科技发展带来的高效率、高收益的生活,另一方面却始终对其保持高度警惕。科学家关于科技伦理的思考也不断遭遇新兴科技发展带来的冲击与挑战。科技与伦理,双方如何冲突、博弈、调适?中国社会科学报记者就此专访了东南大学科学技术伦理学研究所所长陈爱华教授。

   “能做”与“应做”的矛盾 

  《中国社会科学报》:美国圣母大学约翰·莱利科学、技术和价值研究中心曾发布《2014年科学技术领域中将出现的伦理困境和政策问题》报告,您如何看待其预测的未来十大科技伦理问题? 

  陈爱华:这份报告提及的科技伦理困境,主要关涉以下几对科技伦理关系:科技与人的伦理关系、科技与社会的伦理关系、科技与动物的伦理关系、科技与环境或者说是生态的伦理关系。

   其中,关涉科技与人伦理关系的包括数据芯片植入:我们还有个人隐私吗?伴侣机器人:改变人类互动的价值观?神经增强方法:人类在何处越界?人机交互:重新定义“人格”?关涉科技与社会伦理关系的包括犯罪预测警务:是否需要惩处潜在犯罪?机器人执法:何时需要人类的判断?虚拟货币:是否会助长违法行为?太空产权:私人公司有哪些权利?关涉科技与动物伦理关系的包括机械化有机体:将动物当成玩具?关涉科技与环境及生态伦理关系的包括气候工程:如何加强环境正义?

  我认为,导致上述伦理困境的原因尽管具有多元性、多样性特点,但归结起来主要凸显为“能做”与“应做”的矛盾,或者说是科技活动主体在“能做什么”与“应做什么”的选择中产生的伦理冲突。这实际上是康德“问题式”再现。

《中国社会科学报》:怎样理解康德“问题式”再现?

  陈爱华:康德曾发人深省地提出:“我能够认识什么?”“我应当想什么?”“我能够期望什么?”“人是什么?”

  在康德看来,前三个问题从属于最后一个问题,即“人是什么”。康德在解读“人是什么”时指出,“人乃是唯一的自然物,其特别的客观性质可以是这样的,……在他里面又看到因果作用的规律和自由,能够以之为其最高目的的东西,即世界的最高的善”。康德认为,道德责任是一切道德价值的泉源,尽管合乎责任原则的行为并不必然善良,但违反责任原则的行为却肯定是恶的。对人来说,尤其对从事科学活动的主体来说,责任具有一种必要性。它能促使主体排除来自爱好和欲望的障碍,担负起自己的责任,恪守自己的职守,彰显德性的力量——把责任的“应该”转变成“现实”的力量。

  科技发展是向科技伦理生成的过程

  《中国社会科学报》:历史地看,科学技术与科技伦理之间的关系呈何种发展态势?

  陈爱华:纵观科技发展史,科学技术发展与科技伦理密切相关。恩格斯在探索科学的起源时曾指出,“科学的发生和发展一开始就是由生产决定的。”而科技生产什么和怎样生产与每一时代人的需要密切相关。正如马克思指出的,人为了生活,“首先就需要衣、食、住以及其他东西”。

  恩格斯在《自然辩证法·札记[科学历史摘要]》中叙述了科技最初的发展历程,“首先是天文学——游牧民族和农业民族为了定季节,就已经绝对需要它。天文学只有借助于数学才能发展。因此也开始了数学的研究。——后来,在农业发展的某一阶段和在某个地区(埃及的提水灌溉),而特别是随着城市和大建筑物的产生以及手工业的发展,力学也发展起来了。不久,航海和战争也都需要它。——它也需要数学的帮助,因而又推动了数学的发展。”

  当代科技发展与造福人类、维护人—自然—社会系统协调发展密切相关:一方面,信息、网络、计算机等现代科技取得了长足发展,满足了人们交往多元化、信息化、高速化需求;另一方面,交通、建筑、能源、材料等高新技术崛起,不仅推进了人们衣食住行及文化需求的量的增长,且促进了其质的提升。与此同时,自然资源紧张,特别是土地、能源、资源的匮乏等人—自然—社会伦理问题日益凸显。因此,协调人—自然—社会复合性的多重伦理关系已成为当代科技发展不可回避的问题。在这一意义上,可以说,科技发展是向科技伦理生成的过程。

《中国社会科学报》:人们对这一问题的认识也存在一个过程。

  陈爱华:是的。科技活动主体对其认识经历了自发(自发而非自觉意识到按照科技客观—自身发展的逻辑)—自主(按照科技活动主体自身的兴趣、偏好的逻辑)—自觉(自觉意识到了科技客观—自身发展的逻辑,整合科技活动主体自身的兴趣、偏好)的过程,因而人们对于这一问题的认识,也经历了肯定(自发地将科技发展与人的需要联系在一起)—否定(仅看到科技自身发展,忽略了与人—社会需要的内在联系)—否定之否定(意识科技发展与人—社会需要的内在联系)的曲折过程。

  《中国社会科学报》:《科学家宪章》是否可以看作是近代以来,科学家道义自觉、责任自觉的里程碑?

  陈爱华:《科学家宪章》中关于科学家义务的规定有以下6条:要保持诚实、高尚、协作精神;要严格检查自己所从事工作的意义和目的,受雇时须了解工作的目的,弄清有关道义的问题;用最有益于全人类的方法促进科学的发展,要尽可能地发挥科学家的影响以防其误用;要在科学家研究的目的、方法和精神上协助国民和政府的教育,不要使它们拖累科学的发展;促进国际科学合作,为维护世界和平、为世界公民精神作出贡献;重视和发展科学技术所具有的人性价值。

  这些不仅规约着科技发展向科技伦理生成,且是科学家共同体达成的共识。

  《中国社会科学报》:高新技术的出现,常伴随伦理上的巨大不适,但若因此完全拒绝这些新技术,我们可能会丧失许多为人类带来巨大福利的机遇,甚至与新的发展趋势失之交臂。

  陈爱华:我认为“过于强调伦理,会束缚科技向前发展”的观点,正是对“科技发展是向科技伦理生成的过程”认识不足而产生的误识。法国哲学家兼科学家让·拉特利尔认为,现在的科学研究越来越多地不是旨在解决严格意义上的科学问题,而是利用科学知识、方法和技艺来创造新的工业,为经济建设提供新的资源,制造新式军事武器,或服务于区域或国家的发展规划。

  海德格尔在《科学与沉思》中说,现代科学“以一种愈来愈决然、但却愈来愈不引人注目的方式锲入到生活的所有组织形式之中:锲入到各种工业、经济、课堂、政治、战争、政论之中”。

  可见,现代科技,无论是研究还是成果应用,都不再是与价值即科技伦理无涉的范畴或现象。亚里士多德曾在《尼可马克伦理学》中指出,“德性不仅产生、养成与毁灭于同样的活动,而且实现于同样的活动”,而“造成幸福的是合德性的活动,相反的活动则造成相反的结果”。因此,“科技发展向科技伦理生成”是科技发展的历史选择,是让科技发展造福人类,促进人—自然—社会伦理关系和谐可持续发展的应然选择,也是科技活动主体的道德责任与历史使命。

 构建科技伦理应然逻辑体系

  《中国社会科学报》:科技的“功利效应”与伦理的“道义效应”导致了价值观念上的冲突与博弈、调适与坚守。您认为,应如何构建符合时代要求的科技伦理,以解决科学技术与伦理道德的关系?

  陈爱华:科技的“功利效应”与伦理的“道义效应”,均表现为科技发展中不同伦理价值取向,两者的冲突与博弈、调适与坚守是科技伦理价值论研究的内容之一。两者的区别在于前者受资本逻辑操控,后者遵循科技伦理的应然逻辑。

  就资本逻辑而言,其实践层面的逻辑表现为——以“经济理性”为原则、以利润为动机,把科学技术、自然资源、人的创造能力等要素仅作为资本积累手段;其价值哲学层面的逻辑表现为急功近利的价值取向——一切以本位的利益获得为价值取向来权衡或主导科技发展方向,不考虑人、自然、社会的可持续发展,使科技与自然、科技与人、科技与社会的伦理关系均处于紧张状态。

  为了超越资本逻辑对科技发展的操控,科技活动主体必须遵循“伦理的‘道义效应’”的科技伦理的应然逻辑。

  《中国社会科学报》:要解决科学技术发展过程中伴生的伦理困境,除了构建科技伦理,您认为还需要做什么?

  陈爱华:在我看来,还必须构建科技伦理应然逻辑体系。不仅要关注科技活动个体道德规范的构建与完善,更要注重科技共同体集体行动的伦理调控。因为有重大而长远影响的科技活动,一般都汇聚了多学科、多元科技共同体的集体行动,仅强调科技共同体及个体对于应然逻辑的伦理规范的自知、自觉,对于自身道德行为的自律、自省还不够,还需制定相关的、具有道德他律性的制度伦理机制、监督伦理机制、问责伦理机制,以引导和约束科技共同体集体行动与科技个体的认知和行为。

                        (中国社会科学报记者 唐红丽)

电话直呼
在线客服
新万博-狗万
发送邮件
企业位置
联系我们:
051586021110
客服
点击这里给我发消息
还可输入字符200(限制字符200)
技术支持: 建站ABC | 管理狗万结算
http://www.bshare.cn/