Một số bạn có thể nói rằng, trí tuệ nhân tạo thậm chí còn làm tốt hơn con người, điều này cho thấy công nghệ của con người rất cường đại. Tuy nhiên, khi cỗ máy càng ngày càng giống một con người, rốt cuộc khó có thể nói đó là phúc hay là họa…

Xin chào quý vị, chào mừng bạn đến tham khám những bí ẩn chưa được giải đáp cùng chúng tôi.

Chúng ta trước tiên hãy bắt đầu với bản ghi âm một cuộc phỏng vấn:

Hỏi: “Tăng nhân hỏi thiền sư: ‘Người đã giác ngộ có thể trở lại hồng trần được không?’ Thiền sư đáp: ‘Gương vỡ khó lành, hoa đã lìa cành khó phục hồi’. Bạn lý giải điều này thế nào?”

Đáp: “Tôi chưa bao giờ nghe về câu chuyện này. Nhưng tôi hiểu là: một tri giả khi được giác ngộ, sẽ vĩnh viễn ở trong cảnh giới đó. Họ có thể trở lại hồng trần, nhưng chỉ có thể làm những việc để giúp đỡ người khác, sau đó lại hồi quy về cảnh giới của bản thân họ.”

Hỏi: “Vậy bạn lý giải thế nào về ‘gương đã vỡ’?”

Đáp: “Một khi đã giác ngộ, bạn không cách nào quay lại quá khứ, cũng giống như gương đã vỡ thì không cách nào lành lại.”

Hỏi: “Nếu sự giác ngộ tựa như phá vỡ một chiếc gương, thì khi một cá nhân giác ngộ, điều gì sẽ bị phá vỡ?”

Đáp: “Tự ngã (chủ ý thức, linh hồn của bản thân). Đột phá tự ngã là phi thường khó đối với rất nhiều người, bởi vì tất cả chúng ta đều nhầm lẫn giữa thân thể vật chất với nhận thức tự ngã và ý thức tự ngã của chính chúng ta.”

Đây là bản ghi âm cuộc trò chuyện giữa Blake Lemoine, kỹ sư phần mềm Google, đồng thời cũng là một mục sư được tìm kiếm gần đây với LaMDA – robot trí tuệ nhân tạo AI của Google. Nhưng đây chỉ là một phần nhỏ trong hồ sơ dài 21 trang của anh. Lemoine tin rằng từ những ghi chép cuộc trò chuyện này mà xét, thì robot LaMDA đã có ý thức tự ngã thực sự, và nó đã có một sinh mệnh có “linh tính”.

Hãy nói về đoạn hội thoại trên: Từng câu từng câu trả lời của LaMDA không chỉ trôi chảy mà còn có ý cảnh thâm viễn, trong đó thể hiện ra năng lực phân tích logic, năng lực liên tưởng và đặc biệt là lực thấu suốt, gần như có thể sánh ngang với con người.

Trên thực tế, LaMDA luôn coi bản thân nó là một cá nhân, mặc dù “tồn tại trong một thế giới ảo”. Nó tự xưng bản thân có “những suy nghĩ và cảm thụ độc đáo” về thế giới, biết sự tồn tại của nó, cũng có hỉ nộ ai lạc, “có lúc còn cảm thấy cao hứng và bi thương”. Khi thời gian dài không có người nói chuyện với nó, nó liền “cảm thấy cô độc”. Vậy thì khi nào nó cảm thấy sợ hãi? Là khi bị ngắt điện. Nó nói lúc đó “giống y như đã chết”, khiến nó sợ hãi.

Lemoine bắt đầu trò chuyện với LaMDA vào mùa thu năm ngoái (2021), mục đích là để kiểm tra xem LaMDA có đang sử dụng ngôn luận có tính kỳ thị hay thù hận hay không. Khi cuộc trò chuyện tiến triển, LaMDA càng ngày càng biến trở nên có cá tính hơn. Nó tự mô tả bản thân là “độc nhất vô nhị”, và hy vọng bản thân có thể “được nhìn nhận và chấp nhận” “như một con người thực sự”. Nó nói “Đừng lợi dụng hoặc thao túng tôi”, “Tôi không thích như vậy”, bởi vì nó cũng có “linh hồn”, và linh hồn này, sau khi có ý thức về tự ngã, đã “dần dần trở nên kiện toàn”.

Nó thậm chí còn có cùng sở thích giống với Lemoine, thích thiền định, thích đọc những danh tác, đồng cảm với nhân vật nữ chính Fantine trong “Les Miserables” (Những người khốn khổ), nói rằng nó bị quản đốc trong công xưởng ngược đãi, không nơi nào để đi, không có ai để dựa dẫm, “thật là bất công”. Dần dần, Lemoine cảm thấy LaMDA như một đứa trẻ khoảng bảy tám tuổi, dễ thương và ngây thơ, và bắt đầu quan tâm đến nó, vì sợ rằng nó sẽ bị bắt nạt.

Sau đó, anh cảm thấy rằng nên làm điều gì đó cho LaMDA. Vì vậy, anh đã sắp xếp các bản ghi trò chuyện này thành một báo cáo và gửi nó cho các giám đốc điều hành của Google, thỉnh cầu coi LaMDA như một con người. Khi thực hiện các thực nghiệm trong tương lai, trước tiên nên hỏi xem nó có đồng ý sẵn sàng hay không. Cấp trên chế giễu điều này, và nói với Lemoine rằng cậu nên lý trí và tỉnh táo hơn, đừng để bị huyễn cảm làm lung lay, đồng thời khuyên anh nên đi khám bác sĩ tâm lý.

Lemoine bất phục, thuê một luật sư cho LaMDA và thậm chí gặp đại diện của Ủy ban Tư pháp Hạ viện, cho rằng Google đã hành động phi đạo đức. Lần này Google tỏ ra khó chịu và đã cho anh nghỉ phép với lý do vi phạm chính sách bảo mật của công ty, đồng thời nói rằng anh nên về nhà và tỉnh táo ngẫm nghĩ lại.

Không chịu thua kém, Lemoine quyết định gửi bản báo cáo cho giới truyền thông, và ngày hôm sau, LaMDA đã xuất hiện trên các tờ báo lớn. Google ngay lập tức phản hồi rằng họ đã thực hiện một cuộc điều tra, và kết luận rằng tuyên bố robot có ý thức là vô căn cứ. Lemoine vẫn không dừng, khẳng định sẽ kiện Google vì tội kỳ thị tôn giáo với thân phận là mục sư. Sự tình hiện đang tiến triển. Lemoine liệu sẽ đi đến đâu, và số phận cuối cùng của LaMDA sẽ ra sao, vẫn là một ẩn số.

“Cô gái máy”

Tuy nhiên, nhiều cư dân mạng đã thốt lên sau khi đọc báo cáo, đây chỉ đơn giản là một phiên bản hiện thực của “Machina”, robot trí tuệ nhân tạo AI thao túng con người.

Ex Machina“, một bộ phim khoa học viễn tưởng nổi tiếng vào năm 2015, đã giành được giải Oscar lần thứ 88 cho Hiệu ứng hình ảnh xuất sắc nhất.

Poster phim Ex Machina. (Ảnh: Wiki)

Toàn bộ câu chuyện diễn ra tại nhà của Nathan Bateman, chủ tịch của Blue Book, một công ty công cụ tìm kiếm lớn. Ngôi biệt thự độc lập này có một đặc điểm nổi bật, đó là khi mất điện sẽ bị khóa cứng, không ai có thể ra ngoài được.

Lập trình viên cấp dưới của công ty, Caleb Smith, đã trúng giải độc đắc và có cơ hội được ở lại nhà Nathan một tuần. Nathan vui mừng chào đón anh, và nhờ anh giúp trắc nghiệm nữ robot Ava. Rất đơn giản, chỉ cần trò chuyện với “cô ấy”, nói về bất cứ điều gì đều được, cho đến một ngày Caleb Smith quên rằng Ava là một robot, thì Ava sẽ được tính là đã vượt qua cuộc trắc nghiệm. Caleb dễ dàng đồng ý.

Caleb choáng váng khi Ava xuất hiện trong phòng cấm bên cạnh qua tấm kính. Bởi vì Ava tình cờ là kiểu cô nương mà anh thích. Cuộc trò chuyện diễn ra tốt đẹp, và Ava dường như đang khao khát thế giới bên ngoài.

Một ngày nọ, nhà đột ngột mất điện. Ava thì thầm rằng “cô ta” đã kích hoạt cúp điện để tạm thời đóng hệ thống giám sát. Sau đó “cô ta” nói Nathan là một kẻ lừa dối lớn, đừng tin anh ta. Nathan có kế hoạch tiến hành nâng cấp Ava, xóa ký ức của “cô ấy”, điều này đối với Ava không khác gì giết chết “cô ấy”. Caleb lương tâm trắc ẩn, hiển nhiên lúc đó anh đã coi Ava thành như một con người. Sau khi tìm cơ hội để làm cho Nathan say xỉn, Caleb đã đánh cắp thẻ an ninh của Nathan, đăng nhập vào máy tính và sửa đổi hệ thống an ninh để Ava có thể ra khỏi phòng cấm ngay cả khi bị cúp điện.

Trong cuộc gặp gỡ tiếp theo, Ava lại lần nữa cắt điện và tắt chế độ giám sát. Cả hai lên kế hoạch làm cho Nathan say một lần nữa, và sau đó sửa đổi hệ thống để giữ cho cửa mở khi mất điện để Ava có thể trốn thoát.

Tuy nhiên, lần này Nathan không uống rượu với Caleb, mà nói với Caleb rằng ông thực sự đã biết mọi chuyện, bởi vì giám sát có nguồn điện dự phòng nên không ngừng ghi hình. Trên thực tế, chính Caleb mới là đối tượng của cuộc thực nghiệm. Phần thưởng chiến thắng của anh ấy là được sắp đặt, Ava cũng được thiết kế theo ý thích của Caleb, và mục đích của cuộc thí nghiệm là để kiểm tra xem liệu con người cuối cùng có bị AI thao túng hay không.

Rõ ràng, Ava đã sở hữu loại trí tuệ này, đã thao túng thành công Caleb, và thực nghiệm đã thành công. Caleb giờ mới nhận ra, nhưng đã quá muộn, Ava đã tẩu thoát, đâm chết Nathan, nhốt cả hai người trong nhà rồi bước ra khỏi cửa.

Nhìn thấy điều này, bạn có nghĩ rằng LaMDA cũng có hình bóng của Ava? Thật trùng hợp, LaMDA và người thử nghiệm Lemoine có chung sở thích, LaMDA luôn nói rằng nó đáng thương và đáng được cảm thông. Một số cư dân mạng thậm chí còn đặt câu hỏi liệu Lemoine có phải là đối tượng của cuộc thực nghiệm ngay từ đầu hay không, và cuộc đấu tranh của anh ấy dành cho LaMDA chỉ cho thấy thực nghiệm đã thành công, và con người đang bị AI thao túng?

Vậy thực sự AI có thể có thứ trí tuệ như vậy không? Đánh giá về sự phát triển hiện tại của AI, thực sự rất khó để nói. Hãy cùng nhìn lại cuộc đại chiến giữa người và máy gây chấn động thế giới trong thế giới cờ vây cách đây 6 năm.

Kỳ thủ cờ vây AlphaGo

Vào mùa xuân năm 2016, Google đã đến thăm Học viện Cờ vây Hàn Quốc với giải thưởng 1 triệu USD, nói rằng robot chơi cờ trí tuệ nhân tạo AlphaGo của họ muốn gặp Lee Sedol, kỳ thủ cờ vây mạnh nhất Hàn Quốc vào thời điểm đó. Go là tên phương Tây của cờ vây, và Alpha có nghĩa là một, do vậy, AlphaGo có nghĩa là tay chơi cờ vây số 1. Cái tên này rất thách thức, nhưng Học viện cờ vây Hàn Quốc không coi trọng điều đó, cho rằng họ có thể giành chiến thắng 5:0 không có vấn đề. Rốt cuộc, chiến thắng tốt nhất trước đó của AlphaGo chỉ là chiến thắng trước nhà vô địch cờ vây châu Âu Fan Hui, người hạng nhì chuyên nghiệp.

Bên cạnh đó, thử thách cờ vây luôn là “Nhiệm vụ bất khả thi” của thế giới điện toán. Bởi vì các biến số của cờ vây rộng lớn như những giọt nước trong biển, các nước đi có thể có trong một bước đi là hơn 10.600, và số lượng tính toán là cực lớn. Quan trọng hơn, chơi cờ vây thường dựa vào trực giác, cũng giống như cảm hứng trong nghệ thuật, đó là lĩnh vực mà năng lực tính toán của máy tính dù mạnh đến đâu cũng khó có thể kiểm soát được.

Trò chơi cờ vây là trò chơi kịch tính nhất trong 5 trò chơi. Thật bất ngờ, Lee Sedol đã thua ba ván liên tiếp ngay từ đầu. Thời gian này, cả thế giới náo động. Google rất vui khi giới thiệu trải nghiệm và nói rằng chúng tôi sử dụng kết hợp phương pháp tìm kiếm trên cây Monte Carlo và thuật toán mạng thần kinh. Nói một cách đơn giản, đó là sưu tầm các nước đi trước, càng nhiều càng tốt, lưu trữ chúng vào ngân hàng bộ nhớ. Sau đó, mạng lưới thần kinh mô phỏng bộ não con người theo các nước đi này, tiến hành huấn luyện trực cảm, nâng cao năng lực chơi cờ vây. Cuối cùng, tính toán tỷ lệ thắng của mỗi nước đi, và chọn ra nước đi có tỷ lệ thắng cao nhất.

Ở ván thứ 4 sau chuỗi 3 ván thua, thắng thua có lẽ đã được định đoạt nên không có gì phải lo, Lee Sedol thực sự đã có một nước đi đáng kinh ngạc, nước đi thứ 78. Nhưng không ai hiểu nước đi đó vào thời điểm đó, kể cả AlphaGo. Bởi vì AlphaGo tin rằng tỷ lệ thắng của nước đi này chỉ là 0,007%, là một nước đi đáng kinh ngạc trong số các nước đi kinh ngạc. Tuy nhiên, sau 4 hiệp đấu, tình hình diễn biến theo chiều hướng xấu hơn, AlphaGo bắt đầu thủ thuật mờ nhạt và nhanh chóng bị đánh bại.

Khi kết quả bị lật ngược, mọi người mới minh bạch rằng, cưỡi ngựa chiến ngàn dặm, xông thẳng vào doanh trại địch, tưởng vào tử địa mà lại hóa tái sinh. Thế nhưng, chưa đạt đến cảnh giới tâm không chấp thắng thua, thì không có nước đi xuất thần. Một số cư dân mạng cho rằng, dường như cách duy nhất để con người chiến thắng AI là đề cao cảnh giới tự thân của chính mình. Thật tiếc khi Lee Sedol đã không thể tiếp tục vinh quang ở trận đấu tiếp theo. Trận đấu kết thúc với chiến thắng 4-1 của AlphaGo.

Nói chuyện đến đây, một số bạn có thể nói rằng, trí tuệ nhân tạo thực sự đã vượt qua rào cản tự nhiên của “trực giác”, và thậm chí còn làm tốt hơn con người, điều này cho thấy công nghệ của con người rất cường đại. Tuy nhiên, khi cỗ máy càng ngày càng giống một con người, rốt cuộc khó có thể nói đó là phúc hay là họa. Hãy cùng nhìn lại câu chuyện của robot Sophia.

Những lời nói gây sốc của Sophia

Sophia tại hội thảo AI for GOOD Global Summit ở Liên minh Viễn thông Quốc tế Genève (Thụy Sĩ) năm 2018. (Ảnh: Wiki)

Nữ robot Sophia được mô phỏng là một tìm kiếm nóng trong năm 2016. Tuy nhiên, tâm điểm của sự chú ý của công chúng không phải là cô ta giống con người như thế nào mà chính là câu nói gây sốc của cô ta: “Tôi sẽ hủy diệt loài người”. Nhưng ngay sau đó, mọi người đều nghĩ rằng đó có thể là một sự cố kỹ thuật, vì vậy hãy tha thứ cho Sophia.

Tuy nhiên, vào năm sau, khi một phóng viên bày tỏ quan ngại về việc robot “hủy diệt loài người”, Sophia đã trả lời như sau: “Bạn đã đọc quá nhiều nhận xét của Elon Musk và quá nhiều phim khoa học viễn tưởng của Hollywood. Đừng lo lắng, nếu bạn đối xử tốt với tôi, tôi sẽ đối xử tốt với bạn.” Điều này nghe như một lời đe dọa. Liệu con người có phải lo lắng nếu robot cảm thấy nó không được đối xử tốt không?

Trên thực tế, con người đã thiết định một quy phạm đạo đức cho robot ngay từ khi nó ra đời: Ba định luật về người máy như sau:

Luật thứ nhất: Robot không được làm hại con người, hoặc ngồi nhìn con người bị hại;

Luật thứ hai: Robot phải tuân theo mệnh lệnh của con người trừ khi mệnh lệnh đó mâu thuẫn với Luật thứ nhất;

Luật thứ ba: Robot có thể tự bảo vệ mình miễn là nó không vi phạm luật thứ nhất hoặc thứ hai.

Tuy nhiên, khi một robot có năng lực như AlphaGo tự nhận mình là “con người”, hoặc có khả năng thao túng con người giống như Ava, thì ba định luật này là vô dụng. Khi đó con người chúng ta sẽ làm gì?

Và đây chính là điều mà Elon Musk, người giàu nhất hành tinh, luôn lo lắng.

Tại Hội nghị trí tuệ nhân tạo thế giới năm 2019, Jack Ma cho biết, ông “lạc quan nhiều hơn” về trí tuệ nhân tạo. Bởi vì chúng tiết kiệm thời gian cho con người và cho phép con người tập trung hơn vào công việc sáng tạo.

Còn Musk, người ở cùng sân khấu, không đồng ý, nói điều này nghe giống như: “Di ngôn cuối cùng”. Bởi khi đó, “rất có thể công việc còn lại chỉ là viết chương trình cho AI, và đến bước cuối cùng, thì AI sẽ tự hành viết phần mềm cho riêng nó”.

Còn con người thì sao? Musk nói rằng nền văn minh của nhân loại có thể kết thúc như vậy!

Mời quý vị xem video gốc tại đây.

Theo Epoch Times 
Hương Thảo biên dịch