關於道德經的小故事

  在社會中穿梭忙碌的人們,身上一定要需要兩種最重要的東西,一種是知識,而另一種是道德。如果說知識是進入社會,貢獻社會的法寶,那麼,道德就是立足於社會的身份證。沒有道德,就不能在社會中生存。下面是小編為您整理的,希望對你有所幫助!

  篇一:愛的道德

  布拉格實在非常小,小到只用半天時間就能走完。但是根據米蘭·昆德拉小說《生命不能承受之輕》改變的電影《布拉格之戀》讓它聞名於世。

  卡夫卡生前就居住在這個城市的黃金小巷22號。卡夫卡每天都要到西貝斯卡大街的雅可咖啡館裡進行思考和寫作,維持生命的就是老闆送的幾片面包,他從來不問世事。卡夫卡的特立獨行引起了一個女人的注意。她坐到卡夫卡對面,從桌子上拿起他寫好的稿紙閱讀,卡夫卡寫一頁,她便讀一篇——那是《變形計》手稿,在當時沒有誰能讀懂,但這個女人是個例外。在離開之前,她通過酒侍留下一張便箋,上面寫著:“我不得不承認,我喜歡上了你和你的作品。”

  這個女人是俄羅斯著名記者密列娜·傑森斯卡。當時她已經是一位銀行家的夫人,但是傑森斯卡對卡夫卡隱藏了這一切。從此以後,他們開始通過布拉格的綠色郵差交流情感。

  但是,1920年的一個偶然機會讓卡夫卡得知傑森斯卡原來是有夫之婦,他陷入了深深的思索。之後卡夫卡便停止了與傑森斯卡的一切聯絡。1921年,當傑森斯卡再次來到布拉格,再次來到這家咖啡館時,她沒有見到卡夫卡。熟悉的亞麻桌布下,空留了一副舊刀叉。

  傑森斯卡來到布拉格的那個晚上,卡夫卡坐在咖啡館幽暗的燈影裡給傑森斯卡寫出了最後一封信:“我現在已經記不起你臉龐的樣子呢,只有你離開咖啡桌那一霎那的背影及衣飾歷歷在目。”

  他們後來再也沒有見過面。直到卡夫卡彌留之際,人們才聽到已經處於昏迷狀態的他口裡呢喃著傑森斯卡的名字。

  不橫刀奪愛,不在愛的名義下苟且,把愛人放在光明之外,把自己放在光明之處。卡夫卡用孤寂的一生表達了自己對愛的尊重——這應該就是愛的最高道德了吧。

  篇二:規則大於道德

  一個人即使有犯罪動機,如果沒有造成犯罪的結果,法律也對他無可奈何。思想再壞,沒有行動,就不能說他是個壞人。同樣,富人是不是為富不仁,也不是思想品德問題,而是看手段和結果。

  君子愛財,取之有道,可見愛不愛財無關緊要,用什麼方法去取,才是問題的實質。

  曾經有某餐館,考驗過食客的道德水平。他們讓食客根據自己對菜品的滿意程度定價,先吃後定,定多少收多少。此舉一出,食客盈門是自然的,餐館賠本也是自然的。據記者報道,90%以上的食客都吃得呼兒嗨喲,但這並不妨礙他們都定出了比地板更低的價,普遍只付了不及成本的10%的錢,有的只是象徵性地付一兩個硬幣,有的乾脆連硬幣都不付,一副“吃大戶”的模樣。訊息終於暴出,媒體又抓到了熱點,一個商業行為上升為一場道德討論,見諸報端的,無不是對國人素質之低的切齒痛斥。

  餐館老闆難道有病,竟然忘記了自私是人的天性?人不為己,天誅地滅,這句話其實是很符合進化論的。不管富人?窮人,內心的貪慾都根深蒂固,人們常說為富不仁,只是因為窮人的不仁沒有暴露出來而已,於是就把不仁的帽子戴到富人頭上,這是不公平的。

  餐館老闆清醒得很,我估計,這只不過是一個策劃,是一種促銷手段而已,等到他的餐館聲名鵲起,等到食客嚐出了味道,他再按市場行情收費也不遲。

  曾經挑起亞洲金融風暴的“金融大鱷”索羅斯,在很多人看來簡直是十惡不赦,但偏偏是他,因為行善而成為第二屆“代頓和平獎”得主。他的主要事蹟是捐出鉅款,支援波斯尼亞地區的戰後重建,以及他所領導的量子基金對多項慈善活動的大力支援。此種行為在中國也很多,但大多帶有商業色彩,因而慣性思維的中國記者就對索羅斯提出這樣的問題:這是您的天性還是樹立形象的需要?索羅斯回答:在金融市場,我只是按規則辦事,我遵守規則,談不上道德不道德。

  其實說穿了,也就是因為有高額遺產稅,國外的富豪們才大多在生前捐出大部分的財產,不僅是索羅斯,而是一種普遍的現象。富人的仁,不是道德的促成,而是制度的結果。

  按規則辦事,這就夠了。

  經濟和道德,實際上是兩個範疇,雖然有所交叉,但絕不能混為一談。誰都有不仁的可能,所以才需要市場的規範,需要法律的約束,讓不仁的行為付出代價,讓不仁的願望不能實現。富人們仁不仁,不僅是人心好不好的問題,更重要的是社會健不健全的表現。如果一個社會到處都在嚷嚷著“為富不仁”,那麼不仁的不僅是富人,還有這個社會本身。

  篇三:機器人也要講道德

  根據科幻作家阿西莫夫的同名小說改編的電影《我,機器人》裡有這樣一個場景:2035年的一個早晨,機器人與人類一起穿梭在美國芝加哥繁忙的街道上,它們在送快遞,幫主人遛狗,做搬運工,急著回家給主人拿急救藥品——這並非遙不可及,日前,谷歌公司的機器人汽車專案就有可能讓這一虛構成為現實。

  今年5月,美國內華達州為一輛搭載谷歌智慧駕駛系統的汽車頒發了牌照,允許這輛無須人工駕駛的汽車在公共道路上測試行駛。據行業人士預計,自動駕駛汽車在歐美有望於3年至5年後投入使用。

  根據國際機器人聯合會網站公佈的資料,自1961年以來,全球機器人的銷售總量已達230萬,2011年銷量最高,達到16萬臺。眼下,全球機器人產業已處在一個蓬勃發展的上升期。

  阿西莫夫定律的困境

  當機器人越來越多地滲透到人們的生活中,由此引發的法律與道德問題也隨之而來。

  英國謝菲爾德大學人工智慧與機器人學教授諾爾·沙吉舉例說,設想你的機器人汽車正在開往停車場,此時一個兒童正在附近玩耍。一輛卡車開來,濺起的塵土干擾了機器人汽車的感測器,機器人汽車因不能感知兒童的存在而造成交通事故。那麼誰應該對此負責,是機器生產廠家、軟體工程師還是機器人自身?

  隨著機器人越來越聰明,用途越來越廣泛,機器人最終將面臨這樣一種情境:在不可預知的條件下做出道德判斷——在有平民存在的情況下,無人飛機是否應該對目標所在房間開火?參與地震救援的機器人是否應該告訴人們災難真相,即使那樣會引發恐慌?機器人汽車是否應該為了避免撞到行人而突然轉向,即使那樣會撞到其他人?

  1942年,阿西莫夫提出了機器人三定律:機器人不得傷害人類,或者目睹人類將遭受危險而袖手不管;機器人必須服從人給予它的命令,當該命令與第一定律衝突時例外;機器人在不違反第一、第二定律的情況下要儘可能保護自己的生存。

  看似完美的三定律在電影《我,機器人》中遇到了麻煩;在兒童和成人同時出現交通事故時,機器人會計算出成人存活率高,選擇優先救成年人,而不是兒童。在這種情況下,如何教會機器人進行道德判斷就被提上了日程。

  像人一樣學習道德

  怎麼教機器人學會道德判斷?《道德機器:教會機器人如何判斷對和錯》一書的作者之一、美國印第安納大學科學史和科學哲學系教授科林·艾倫表示,這要從人類修習德行的方法中去尋找。

  他舉例說,2010年4月的美國紐約街頭,一名見義勇為的男子在與歹徒搏鬥後奄奄一息,但在近兩個小時裡,先後有20多名行人路過卻無人伸出援手。該男子終因失血過多而死亡。人們對道德的理解有時候並不和實際行動相符。為什麼會這樣呢?

  對此,艾倫解釋說,在現實中,人們往往“本能地”做出反應,並沒有考慮行為所產生的道德問題。古希臘哲學家亞里士多德就認為,人需要在現實中不斷地踐行有道德的行為,最終使其成為一種習慣。在以後再遇到道德選擇時,才能不經思考就能表現出良好的品行。

  因此,艾倫認為,可以設計一些具有簡單規則的機器人汽車。當汽車遇到上述情況的時候,學習著去進行救助,然後再根據一些道德規範,對機器人汽車的“救助”行為進行分析和肯定,從而逐漸培養起它們的道德感。

  然而,另一個更為複雜的問題接踵而來。當人類本身尚對諸如網路下載、墮胎以及安樂死等問題的看法存在分歧的時候,工程師們也不知道應該將哪一套道德體系輸入機器人。同時,將一種價值判斷應用於具體案例時,也會有分歧。比如,在不傷害到別人的情況下,實話被認為是美德。如果說謊能促進友誼,且不傷害到雙方,這時說謊就是“對的”。基於人類道德的差異性,機器人的道德可能會有若干版本。

  當機器人像人一樣開始學習並實踐道德,它們是否會超越和取代人類?艾倫說,他現在還不擔心這一點,眼下需要做的事是如何教會機器人做出正確的道德判斷。至於怎樣的道德判斷是正確的,這個問題,恐怕連人類有時候都還沒有弄清楚。