Common sense và AI

Common sense và AI

Bài blog gần đây của anh Hưng nhắc đến câu chuyện với John McCarthy. Vị GS nổi tiếng này cho rằng: (…) không tin rằng common sense có gì fundamentally statistical hay probabilistic. Tôi nghĩ đây là một vấn đề thú vị — “blog-friendly” topic — nên lôi nó ra đây.

JMC là một trong những người đặt nền móng cho ngành TTNT cổ điển từ đầu thập kỷ 60. Ông là một trong những người khởi xướng việc sử dụng ngôn ngữ logic để biểu diễn và suy diễn kiến thức (knowledge) và common sense. Ý tưởng và sự ảnh hưởng của JMC thống trị giới nghiên cứu mainstream về AI trong suốt các thập kỷ sau đó. Nghiên cứu về AI liên quan chủ yếu đến số 0 và số 1 và gọi là “symbolic AI”, cho đến khi Judea Pearl xuất bản quyển sách landmark về graphical models năm 1988, và một số tác giả về cognitive science (Rumelhart, Hinton và William) nghiên cứu các mô hình neural networks cho learning. Với sự ra đời (thực ra là re-discovery) của neural nets, giống như nhiều thứ buzzwords trong KHMT và trong AI, có một dạo người ta tung hô “connectionist AI” như một câu trả lời mới cho TTNT. “Symbolic AI” bị rơi vào tình trạng defensive từ những ngày đó. Tuy nhiên ta không nên bị cuốn vào sự phân biệt non nớt giả tạo này.

Để hiểu JMC nói gì, tất nhiên ta phải đồng ý với nhau về ngôn ngữ. Trước hết, common sense là gì ? Common sense theo nghĩa thông thường, và common sense trong TTNT? Không dễ trả lời, cũng như nhiều thứ trong nghiên cứu TTNT, các khái niệm thường không có định nghĩa rõ ràng và gây tranh cãi, giống như câu hỏi “thế nào là AI” vậy. Hãy tạm đồng ý với nhau common sense là … common sense theo nghĩa hiểu của con người, đó là những mớ kiến thức căn bản thông thường trong cuộc sống, cần thiết cho sự sinh tồn và giao tiếp. Tất nhiên đây không phải là định nghĩa, nhưng có thể làm cho nó chặt chẽ hình thức hơn.

Giả sư chúng ta đồng ý với nhau về common sense rồi. Rất có thể JMC có lý, rằng khái niệm common sense (do JMC định nghĩ) không có tính chất probabilistic về bản chất. Nhưng cũng có thể JMC không đúng.

Với tôi thì common sense là khái niệm probablistic hay logical không quan trọng. Câu hỏi quan trọng mà tôi quan tâm là: Common sense có phải là khái niệm hữu ích hay không trong việc xây dựng máy tính thông minh? Cụ thể hơn, đó có phải là một khái niệm constructive hay không. Khái niệm này có thể được mổ xẻ và tổng hợp một cách tự động từ giao tiếp của computers với thế giới bên ngoài? Khái niệm đó có thể dễ dàng transfer từ computers này sang computers khác, có thể được tổng quát hoá và suy diễn (inductive and deductive inference) để tạo ra những khái niệm mới có ích?

Nói theo ngôn ngữ của AI, làm thế nào để học (learn) được common sense ? Câu hỏi này đến nay không hề được giải quyết. Một trong những khó khăn khi dùng pure logic để định nghĩa common sense là những khái niệm như “noise” và “uncertainty”. Những thứ này được coi là nuisance, chứ không phải là một phần của mô hình. Có nhiều cố gắng để khắc phục, những khái niệm khá rắc rối như non-monotonic logic và circumscription, nhưng vẫn không đạt được nhừng yêu cầu mà tôi nhắc tới ở trên: khả năng learnability (inductive inference).

Hãy tạm vứt bỏ khái niệm common sense ra khỏi đầu và nhìn theo một hướng ngược lại, cái gì thì (máy tính) có thể (tự động) học được ? Làm thế nào để giao diện máy tính với thế giới xung quanh, thông qua dữ liệu, để học được một cái gì đó hữu ích? Trong khi trường phái AI của JMC không có câu trả lời, thì đây chính là vấn đề của thống kê học: Làm thế nào để học được các mô hình hữu ích từ dữ liệu? Lý thuyết xác suất là một ngôn ngữ hữu hiệu để biểu diễn các mô hình thống kê, và có một lý thuyết đồ sộ về lý thuyết cũng như về tính toán (computation) làm sao có thể học được các mô hình thống kê từ dữ liệu. Ứng dụng của xác suất ở khắp nơi trong các ngành khoa học có sự giao diện với dữ liệu thực.

Vậy, có sự liên hệ gì không giữa các mô hình học được (bằng ngôn ngữ xác suất thống kê) với khái niệm common sense của JMC. Đến đây, ta có thể tạm thấy rằng câu hỏi này không có nhiều ý nghĩa như trước nữa. Sự xa cách giữa hai khái niệm này cũng chính là khoảng cách giữa hai trường phái top-downbottom-up trong TTNT. Top-down chính là dạng architecture được khởi xướng từ nhóm JMC và các lớp kế cận, và đã thống trị suy nghĩ của mainstream AI trong suốt thời gian dài. Tại sao là gọi là “top-down”? Một anh bạn chuyên gia về knowledge representation nói vui với tôi cách reasoning top-down sau đây: AI là quan trọng. Để có intelligence thì phải common sense để communicate. Do đó common sense quan trọng. Để có common sense, ta phải biểu diễn chúng, do đó vấn đề representation of logic rất quan trọng. Vì common sense có lẽ là khái niệm logical, nên ta sẽ dùng logic để biểu diễn và manipulate common sense…

Tìm cách bắc cầu giữa cái khoảng trống này (giữa hai trường phái) không phải là không thú vị. Tôi cho rằng, nhìn từ góc độ mô hình xác suất, rất có thể common sense là một dạng “emerging property/phenomenon”, song không nhất thiết là một khái niệm kiến trúc căn bản của intelligence. Nếu quả thật như thế, thì rất nguy hiểm khi bắt đầu xây dựng một intelligent system bằng cách xây dựng common sense storages. Những systems như vậy sẽ không robust.

Ngoài ngôn ngữ xác suất thì còn ngôn ngữ nào có thể dùng để học các mô hình từ dữ liệu. Có, ví dụ như fuzzy logic của Zadeh . Nhưng những thứ làm được bằng fuzzy logic cũng có thể làm được bằng lý thuyết xác suất. Và lý thuyết xác suất là một lý thuyết toán học đồ sộ hơn, đã được xây dựng từ hàng trăm năm nay. Có lẽ câu hỏi đáng nói hơn không phải là vấn đề ngôn ngữ biểu diễn, rằng thế giới của chúng ta có “fundamentally probabilistic/random” hay không. Nhưng cái này vượt ra ngoài tầm của tôi mà sang địa hạt của theoretical physicists.

Trong hoàn cảnh không (và sẽ không) có định nghĩa và định hướng rõ ràng về AI, vấn đề thú vị có lẽ không phải là: AI nên sử dụng statistical methods hay logical methods. Vấn đề thú vị với tôi là, làm thế nào để giao diện máy tính với streams of data của thế giới bên ngoài. Nói cách khác, làm thế nào để máy tính có khả năng thích ứng (adapt) với môi trường xung quanh được cảm nhận qua các loại sensory data. Data ở đây có thể là bits, pulses, radio signals, video images, sounds, texts, documents, numbers, sequences, matrices,… Tôi cho rằng đây là một trong những topic quan trọng nhất của cả computer science trong thế kỷ 21. Các chuyên ngành của KHMT như architectures, operating systems, programming languages đang từng bước đối diện với nó. Nếu đó là quan tâm chính của AI, tuyệt. Nếu không, thì tôi sẽ không quan tâm đến AI làm gì. Câu hỏi trên đây không phải là quan tâm riêng của machine learning, đó cũng là quan tâm chung của signal processing , của information theory, của statistics , của các khoa học liên quan đến dữ liệu thực. Điều mà những người computer scientists đóng góp được vào trong việc trả lời câu hỏi này, làm sao sử dụng được những công cụ tính toán (algorithms, data structures) và các công cụ toán học (sơ và cao cấp) để giải quyết khi số lượng data rất khổng lồ.

Đó chính là thứ nghiên cứu về AI mà tôi quan tâm, cho dù nó có liên quan đến common sense hay không.

Trước khi bình loạn bài viết rất hay của anh Long, xin kể nốt một đoạn trong cái talk của JMC. Một đồng nghiệp của tôi hỏi câu tương tự câu tôi đã hỏi riêng John: “ông nghĩ gì về 3 cách tiếp cận AI: statistical/probabilistic methods, formal logic, và neural nets”. John trả lời: “hiện nay thì formal logic đang đi trước, nhưng cuối cùng thì bọn làm neural net sẽ thành công, song hành với sự thành công của neuro-science”.

Ý John tin rằng nếu ta hiểu rõ cấu trúc vật lý của não bộ con người thì ta có thể emulate chúng. JMC không nhắc gì đến probabilistic/statistical methods trong câu trả lời, gián tiếp khẳng định lại câu trả lời trước đó của mình.

Khẳng định này của John cần thêm một chút elaboration; Ví dụ: nếu giả thiết quantum mind là đúng thì ta lại còn phải chờ thêm advances in quantum computing nữa chứ không chỉ có các advances in neuroscience. Dĩ nhiên, ta cũng có thể cãi rằng nếu giả thiết này là đúng thì quantum computing là một phần của neuroscience. Tôi cho rằng như vậy thì hơi ép lý quá.

Mặt khác, nếu giả thiết trên là đúng thì neural networks và probabilistic/statistical methods lại converge ở một nơi, khi đó thì thú vị biết mấy! (Xem thêm mớ papers về consciousness nhìn từ các khoa học khác nhau.)

Nếu neural networks chỉ các thuật toán neural networks, thì thật ra các thuật toán này cũng có thể xếp vào một dạng statistical models. Các models này có thể pass messages dưới dạng numbers hoặc một dạng data nào đó, nhưng đều có thể được intepret và analyzed bằng các mô hình thống kê một cách trực tiếp hay gián tiếp. Qua đó có thể giải thích và hiểu khá thấu đáo là tại sao thuật toán kiểu như neural nets lại work, kỳ thực không có gì bí ẩn cả…

Neural networks của con người có thể coi là các statistical models hay không? Rất có thể. (Câu trả lời sẽ là chắc chắn, nếu ta giả sử các tín hiệu thông tin pass trong não là measurable theo nghĩa toán học của measure theory). Khó khăn là chúng ta chưa có access (và physical measurement) đầy đủ đến các messages được pass trong bộ não. Nhưng đã có một số nghiên cứu dùng Kalman filter (một dạng statistical models cụ thể) để phân tích và control não thông qua data được thu lượm được từ các cục cảm ứng từ đóng vào sọ (khỉ và người được thí nghiệm). Chúng ta đã nói về chuyện này ở đâu đó trong blog này, nhưng tôi không mò ra được trong archives.

Hôm trước tôi có dịp nói chuyện với một số vị profs làm về signal processing và information theory và statistics ở Berkeley. Được biết họ đang có một joint project làm về neuroscience. Như vậy đây đang là một active area cho dân EE/CS va` Stat.

Tôi rất ngạc nhiên khi anh Long không nhắc gì đến COLT (Computational Learning Theory) và các đóng góp của Valiant, đặc biệt là khi câu hỏi chính anh Long đặt ra là cái gì thì (máy tính) có thể (tự động) học được?. (Ngoài ra, trong bài viết có lẽ anh Long cũng nên address cả câu hỏi cái gì thì (máy tính) không thể tự động học được?.

Nhân tiện nói thêm, giáo sư Valiant cũng là một nhân vật đặc biệt mà tôi đã có dịp nói chuyện. Rất tiếc là tôi biết quá ít về learning theory để có thể hỏi ông các vấn đề liên quan. Tôi biết tốt hơn về các công trình khác của Valiant thời 70 (như superconcentrators, concentrators, #P, …) nên chỉ nói chuyện được với ông về các đề tài khá cũ này. Không cần phải hỏi, cha đẻ của sharp-P rất là … sharp :-).

Đồng ý với anh Hưng về đóng góp đặc biệt của Valiant trong COLT ở thập niên 80, đặc biệt là mặt lịch sử. Đóng góp của Valiat về learnability gây chấn động trong dân làm machine learning (lúc đó người ta mới hiểu ra rằng why learning is possible). Tuy nhiên một phần đó là do những người làm về learning nói riêng và TTNT nói chung không để ý đến probability/statistics literature. Nhìn lại thì những lý thuyết của Valiant chỉ là một subset rất nhỏ của những gì người ta đã biết từ trước đó rồi (goes back to Fisher từ những năm 30, cho đến Le Cam thập niên 60, cho đến Dudley rồi Vapnik, etc làm về empirical processes ở thập niên 70).

Cái gì thì không học được? Nếu dùng measure theory thì vấn đề chính là cái gì thì measure được (measurable theo nghĩa toán học) thì máy tính sẽ học được hết (bang cach dùng statistical models), vấn đề là học được bao nhiêu mà thôi.

Quay lại đôi chút về human neural network as statistical models…
Tất nhiên nếu chúng ta đi sâu vào đến quantum level và các vị làm quantum physics chỉ ra rằng không bao giờ measure được mọi thứ thì chịu… Nhưng nếu ta dừng lại ở những thứ data observed/measured được bằng physical instruments thì luôn luôn có thể dùng probablistic/statistical methods để phân tích.

Vụ điều khiển máy tính bằng ý nghĩ tôi cũng không tìm lại được post cũ, tuy nhiên các bạn có thể xem bài này ở tạp chí Nature.

Nói leo với các bác một cái nhỉ. Bác Long viết “Nếu quả thật như thế, thì rất nguy hiểm khi bắt đầu xây dựng một intelligent system bằng cách xây dựng common sense storages. Những systems như vậy sẽ không robust.” Chắc bác ngụ ý kiểu xây dựng những ontology database là sẽ không robust đúng không nhỉ? Đọc đoạn này thì em thấy đây là kiểu bias-variance trade-off trong Machine Learning.

Về vụ điều khiển máy tính và suy nghĩ, chẳng đâu xa lab em đang có 2 chú làm về cái này. Em thấy hay phết. Đại khái là cái project đấy là cố gắng để máy tính có thể nhận dạng được các suy nghĩ đơn giản trong đầu ví dụ: nước, quả táo, ăn, uống. Ý tưởng là mỗi khi não người nghĩ đến một object hoặc action nào đó thì sẽ sinh ra một loại sóng điện gì đó; bằng cách thu thập các sóng đặc trưng trong não thì có thể nhận dạng được các suy nghĩ.

Nhân nói đến chuyện common sense và statistical methods trong AI. Có một ví dụ thế này, hồi lâu rồi cách đây độ vài chục năm vào một mùa hè giữa những năm 50s dân làm máy tính (hội ở Mĩ) mới họp nhau lại bàn bạc để tìm xem bây giờ bài toán nào có tính ứng dụng cũng như khả thi giải được. Sau mấy chầu rượu thịt chó, các bác phán Machine Translation sẽ là bài toán tốt để làm, và có thể làm được trong vòng khoảng 20-30 năm. Có vài lí do để họ tin điều đó là lúc đó thì lí thuyết biểu diện logic đang mạnh, khả năng tiên đoán về độ phức tạp của bài toán Machine Translation còn quá giới hạn, common sense là dậy cho máy tính 1 đống grammar rules là có thể xử lí được bài toán, vân vân và vân vân.

Thực tế thì những năm 50s Bộ Quốc Phòng Mĩ (DoD) bắt đầu tài trợ cho các dự án về dịch máy (lúc đầu gọi là mechanical translation sau này đổi thành machine translation – MT). Hội nghị đầu tiên về MT được tổ chức tại MIT. Cũng vào khoảng thời gian những năm 50s và 60s, Zellig Harris (MIT) và học trò của mình, Noam Chomsky, theo đuổi các ý tưởng về việc phát triển một hệ thống hình thức mô tả ngôn ngữ. Công trình tiêu biểu của Chomsky là lý thuyết ngôn ngữ hình thức (formal language theory), và đặc biệt là các kết quả về văn phạm phi ngữ cảnh (context-free grammar).

Đến những năm 70s, sau 20 năm thì nghành MT vẫn tắc tị. Vài điểm yếu là không thể dịch được với vốn từ lớn, không thể dịch nhanh, tốn qua nhiều thời gian vào việc xây dựng các luật ngôn ngữ, và tranh cãi xem luật nào đúng hơn hay hiệu quả hơn. Dân làm MT chật vật không biết tiến về đâu.

Thế rồi có một bác tên gọi là Fred Jelinek, lúc đó đang ở IBM, mới quyết tâm áp dụng các mô hình thống kê vào bài toán Nhận Dạng Tiếng Nói (NDTN). Một bài toán được coi là dễ hơn Machine Translation 1 tí xíu. Fred lấy cảm hứng không phải từ ngông ngữ học, hay ngữ âm học mà là từ khoa học xử lý thông tin và trí tuệ nhân tạo. Công trình “A Mathematical Theory of Communication” của Claude Shannon đăng trên tạp chí khoa học Bell Labs năm 1948 là bước ngoặt quan trọng có ảnh hưởng to lớn đến toàn bộ nghành khoa học máy tính nói chung và nghành nghiên cứu và xử lý ngông ngữ nói riêng. Shannon đã chuyển đổi khái niệm nội dung thông tin từ một khái niệm có tính chất duy lí trí sang một dạng toán học có thể tính toán được là entropy. Kết quả của Shannon được ứng dụng trong rất nhiều lĩnh vực ví dụ như DSP, coding theory, …. Trong CL, entropy là độ đo dùng để đánh giá các mô hình ngôn ngữ. Fred Jelinek là một trong những học trò của Shannon đã áp dụng các phương pháp luận của Information Theory, Statistics, & Optimization vào hệ thống NDTN bằng phương pháp thông kê.

Một câu nói nổi tiếng của Fred là “Every time I fire a linguist, the performance of our speech recognition system goes up.”

Những tiến bộ của statistical methods trong NDTN ảnh hưởng đến MT với sự ra đời của bài báo “The Mathematics of Statistical Machine Translation” vào năm 93. Không có gì ngạc nhiên là các tác giả đến từ nhóm của Fred Jelinek tại IBM. Bài này được giới làm xử lí ngôn ngữ tự nhiên (NLP) đánh giá là bài báo quan trọng nhận của trong vòng 20 năm gần đây của nghành. Chỉ trong vòng chưa đầy 10 năm, tất cả các hệ thống SMT đều outperform các hệ thống rule-based MT có tuổi đời phát triển lâu hơn nhiều.

Vậy thì với hai hệ thống NDTN và Dịch Tự Động, liệu pp thống kê có phải là lời giải cuối cùng hay rộng hơn với những bài toán học của máy tính, pp thống kê có phải là lời giải tốt nhất hay không? Quan sát của tôi thấy rằng trong vòng khoảng 5 năm nữa statistical methods vẫn outperform các pp kiểu như McCathy, nhưng chắc chắn rằng pp thống kê sẽ dừng lại ở một ngưỡng nào đó. Một trong những dấu hiệu là năm ngoái, Google, một cty hiếm khi xuất đầu lộ diện ở các hội thảo, đã trình bầy hệ thống Dịch Tự Động bằng pp thống kê với dữ liệu huấn luyện là 200 Tỉ Từ. Learning curve của hệ thống này gần như là ở plateau trong khoảng từ 150 Tỉ đến 200 Tỉ. Chất lượng dịch rất tốt, thời gian huấn luyện là độ 3-4 ngày trên cluster khoảng 1000 máy. Dân làm SMT thường kinh lắm là dậy cho máy tính với độ 2-3 Tỉ Từ.

Dúng là câu trả lời hôm qua của tôi hơi vơ đũa cả nắm và nhiều lỗ hổng. Thực ra có thể thêm một bài blog dài ở đây. Nếu không sử dụng nền tảng là lý thuyết xác suất thì tôi không có câu trả lời, vì ngoài lý thuyết xác suất (mà dân làm thống kê, và dân làm information theory như Shannon et al) đã quantify rất khéo) không có cách nào để quantify learnability (sẽ nói thêm ở dưới). Còn trong phạm vi lý thuyết xác suất, thì vấn đề giới hạn của learning có thể học được chừng nào (lower bounds/achievable bounds) chính là vấn đề rates (trade-off giữa learning error và number of samples cần phải dùng, using minimax bounds). Đây là vấn đề lý thuyết thú vị và khó. Nhưng dân làm statistics đã nghiên cứu từ lâu (từ thời Le Cam thập niên 60). Tuy nhiên đây không phải là formulation duy nhất. Gần đây, tôi cảm tưởng formulation về list decoding problem của Sudan và các co-authors là một hướng hay có thể add thêm flavor của complexity theory vào learning.

Một comment về nền tảng lý thuyết xác suất: Tất nhiên là phải có giới hạn ở đâu đó. Ví dụ về mặt toán học có nhiều objects kỳ quái, nhưng Cantor set, tuy dense nhưng lại chỉ có Lebesgue measure 0. Phần lớn các phương pháp xác suất thống kê ngầm hiểu là underlying measure và underlying topology match each other in a regular (nice) way. Vì vậy hoàn toàn có thể come up với những objects mà các phuong phap TK hiện tại sẽ break down…

Tuy vậy trong phạm vi PPTK, tôi nghĩ còn rất rất lâu mới đi đến điểm đó, đặc biệt các ứng dụng đời thường trong AI, signal processing, statistics. Những cái anh Hưng nói trong security thì chắc là dễ đến điểm limit đó thật.

Nếu nhìn vào signal processing và information theory/coding theory, có lịch sử phát triển lâu hơn nhiều so với AI thì thấy ngôn ngữ xác suất còn vai trò nền tảng quan trọng thế nào. Trong những ngành này chưa ai dự đoán về limit của nền tảng này trong các phương pháp coding/compression/communications state of the art.

Thông thường một công cụ nào đó đạt tới giới hạn thì lại có thể improved bằng cách khác nhưng không phải là từ bỏ PPTK. Điều thường xảy ra nhất là người ta thay một mô hình đang sử dụng bằng mô hình khác thích hợp hơn. Để làm được điều này phải có hai nhân tố: (1) Hiểu vấn đề (problem domain) sâu sắc hơn và (2) Có công cụ toán học mạnh hơn.

Một ví dụ: Hồi những năm 80 thì người ta làm rùm beng lên với neural nets. Chẳng qua đây chỉ là một cách supercomposition của các hàm số đơn giản mà thôi. Một dạng toán học của thế kỷ 18/19. Tuy nhiên sau vài năm cũng run into limit, vì để learn những mô hình này thì phải giải quyết một bài toán optimization không lồi và không đơn giản. Cuối thập niên 90 thì rùm beng với kernel methods, việc optimization đơn giản hơn learning neural nets nhiều, nhưng khả năng approximate vẫn rất mạnh vì dùng function spaces vô hạn chiều. Machine learning phát triển bằng cách áp dụng công cụ toán học của những năm 40/50 của thế kỷ 20 thay vì công cụ của thế kỷ 18/19. Bên signal processing cũng rùm beng về wavelet methods, chẳng qua là áp dụng công cụ của toán học của những năm 60/70. Việc bùng nổ về graphical models ở machine learning/statistical physics/coding/computational biology/ chẳng qua là cách áp dụng graph theory vào để combine các building blocks là những mô hình thống kê đơn giản hơn.

Việc sử dụng tất cả các công cụ kể trên, đều dựa trên nền tảng là PPXS/TK.

Đơn giản là tôi nghĩ lý thuyết xác suất/measure theory cho phép xây dựng rất nhiều structures giàu có (stochastic processes), và có thể combine/absorb rất nhiều lĩnh vực khác của toán học để tạo ra những công cụ mạnh. Đặc biệt những ngành trong analysis như harmonic analysis/approximation theory. Gần đây bắt đầu có một số người đã /đang sử dụng các công cụ algebraic geometry nữa… Nói chung tôi thấy càng blend analysis với algebra thì càng ra nhiều công cụ mạnh cho learning (và khi đó thì chúng ta càng phải học thêm nhiều toán ?

Tuy nhiên tôi cũng nghĩ nhiều thứ không thể learn được, như trong phần comment trước của tôi với anh Hưng. Những cái gì không phải là “common sense” thì chắc chắn là khó. Ngoài ra những gì phải ngoại suy (extrapolation) thì chắc chắn là khó (nếu không nói là vô vọng) hơn là nội suy (interpolation).

Tôi vẫn nghĩ để tạo ra trí tuệ nhân tạo, cách tiếp cận của sinh học sẽ nhanh và đúng hướng hơn khoa học máy tính.

AI đã phát triển hơn nửa thế kỷ, nhưng ứng dụng thực tế thì như thế nào? Nhận dạng tiếng nói, chữ viết được bao nhiêu??? Dường như các chuyên gia CS cứ cố gắng hiểu và điều khiển mọi quá trình tư duy của con người, nhưng đến bao giờ mới hiểu hết được cấu trúc não bộ để mà mô phỏng. Chưa kể vấn đề Ý thức ở đâu mà ra nằm ngoài phạm trù nghiên cứu của KHMT.

Trong khi đấy, bên sinh học chẳng cần biết con người được cấu tạo như thế nào vẫn nhân bản được 1 con người hoàn toàn mới.

Tôi nghĩ là không cần phải biết não cấu tạo như thế nào, mà chỉ cần tách được riêng não và nuôi sống nó, rồi nhân bản. Đấy là việc của các nhà sinh học. Nhiệm vụ của các nhà CS là tìm cách nối bàn phím, màn hình vào bộ não ấy.