Trí tuệ nhân tạo là gì? Lịch sử phát triển về trí tuệ nhân tạo - Blog Khoa học

Trí tuệ nhân tạo là gì? Lịch sử phát triển về trí tuệ nhân tạo



Blog Khoa học - Trí tuệ nhân tạo hay trí thông minh nhân tạo (tiếng Anh: artificial intelligence hay machine intelligence, thường được viết tắt là AI) là trí tuệ được biểu diễn bởi bất cứ một hệ thống nhân tạo nào. 

Thuật ngữ này thường dùng để nói đến các máy tính có mục đích không nhất định và ngành khoa học nghiên cứu về các lý thuyết và ứng dụng của trí tuệ nhân tạo.

Tuy rằng trí thông minh nhân tạo có nghĩa rộng như là trí thông minh trong khoa học viễn tưởng, nó là một trong những ngành trọng yếu của tin học. Trí thông minh nhân tạo liên quan đến cách cư xử, sự học hỏi và khả năng thích ứng thông minh của máy móc. 

Các ví dụ ứng dụng bao gồm các tác vụ điều khiển, lập kế hoạch và lập lịch (scheduling), khả năng trả lời các câu hỏi về chẩn đoán bệnh, trả lời khách hàng về các sản phẩm của một công ty, nhận dạng chữ viết tay, nhận dạng tiếng nói và khuôn mặt. 

Bởi vậy, trí thông minh nhân tạo đã trở thành một môn học, với mục đích chính là cung cấp lời giải cho các vấn đề của cuộc sống thực tế. 

Ngày nay, các hệ thống nhân tạo được dùng thường xuyên trong kinh tế, y dược, các ngành kỹ thuật và quân sự, cũng như trong các phần mềm máy tính thông dụng trong gia đình và trò chơi điện tử.

Các trường phái trí tuệ nhân tạo

Trí tuệ nhân tạo (AI) chia thành hai trường phái tư duy: AI truyền thống và Trí tuệ tính toán.


AI truyền thống hầu như bao gồm các phương pháp hiện được phân loại là các phương pháp học máy (machine learning), đặc trưng bởi hệ hình thức (formalism) và phân tích thống kê. Nó còn được biết với các tên AI biểu tượng, AI logic, AI ngăn nắp (neat AI) và AI cổ điển (Good Old Fashioned Artificial Intelligence). Các phương pháp gồm có:

Hệ chuyên gia: áp dụng các khả năng suy luận để đạt tới một kết luận. Một hệ chuyên gia có thể xử lý các lượng lớn thông tin đã biết và đưa ra các kết luận dựa trên các thông tin đó. Clippy chương trình trợ giúp có hình cái kẹp giấy của Microsoft Office là một ví dụ. Khi người dùng gõ phím, Clippy nhận ra các xu hướng nhất định và đưa ra các gợi ý.

Lập luận theo tình huống.

Trí tuệ tính toán nghiên cứu việc học hoặc phát triển lặp (ví dụ: tinh chỉnh tham số trong hệ thống, chẳng hạn hệ thống connectionist). Việc học dựa trên dữ liệu kinh nghiệm và có quan hệ với Trí tuệ nhân tạo phi ký hiệu, AI lộn xộn (scruffy AI) và tính toán mềm (soft computing). Các phương pháp chính gồm có:



Mạng neuron: các hệ thống mạnh về nhận dạng mẫu (pattern recognition).

Hệ mờ (Fuzzy system): các kỹ thuật suy luận không chắc chắn, đã được sử dụng rộng rãi trong các hệ thống công nghiệp hiện đại và các hệ thống quản lý sản phẩm tiêu dùng.

Tính toán tiến hóa (Evolutionary computation): ứng dụng các khái niệm sinh học như quần thể, biến dị và đấu tranh sinh tồn để sinh các lời giải ngày càng tốt hơn cho bài toán. Các phương pháp này thường được chia thành các thuật toán tiến hóa (ví dụ thuật toán gien) và trí tuệ bầy đàn (swarm intelligence) (chẳng hạn hệ kiến).

AI dựa hành vi (Behavior based AI): một phương pháp mô-đun để xây dựng các hệ thống AI bằng tay.

Người ta đã nghiên cứu các hệ thống thông minh lai (hybrid intelligent system), trong đó kết hợp hai trường phái này. Các luật suy diễn của hệ chuyên gia có thể được sinh bởi mạng nơ-ron hoặc các luật dẫn xuất (production rule) từ việc học theo thống kê như trong kiến trúc ACT-R.


Các phương pháp trí tuệnhân tạo thường được dùng trong các công trình nghiên cứu khoa học nhận thức (cognitive science), một ngành cố gắng tạo ra mô hình nhận thức của con người (việc này khác với các nghiên cứu AI, vì AI chỉ muốn tạo ra máy móc thực dụng, không phải tạo ra mô hình về hoạt động của bộ óc con người).


Lịch sử phát triển AI



Đầu thế kỷ 17, René Descartes đã đưa ra quan điểm rằng cơ thể của động vật chỉ là các cỗ máy tinh xảo. Năm 1642 Blaise Pascal chế tạo chiếc máy tính cơ học đầu tiên. Charles Babbage và Ada Lovelace đã nghiên cứu về các máy tính cơ học có khả năng lập trình được.

Bertrand Russell và Alfred North Whitehead đã xuất bản cuốn Principia Mathematica, trong đó logic hình thức đã được cách mạng hóa. Warren McCulloch và Walter Pitts xuất bản A Logical Calculus of the Ideas Immanent in Nervous Activity năm 1943 đặt nền móng cho mạng nơ-ron.

Thập niên 1950 là thời kỳ của nhiều hoạt động trong lĩnh vực AI. John McCarthy thiết lập thuật ngữ "artificial intelligence" trong hội thảo đầu tiên dành cho chủ đề này. Ông còn sáng chế ngôn ngữ lập trình Lisp. Alan Turing đưa ra "Turing test" như là một phương pháp kiểm chứng hành vi thông minh. Joseph Weizenbaum xây dựng ELIZA, một chatterbot cài đặt liệu pháp tâm lý Rogerian.

Trong các thập niên 1960 và 1970, Joel Moses biểu diễn sức mạnh của suy diễn ký hiệu trong việc tích hợp các bài toán trong chương trình Macsyma, chương trình toán học sử dụng cơ sở tri thức đầu tiên thành công. Marvin Minsky và Seymour Papert xuất bản Perceptrons, trong đó chứng minh các giới hạn của các mạng nơ-ron đơn giản, và Alain Colmerauer phát triển ngôn ngữ lập trình Prolog. 

Ted Shortliffe biển diễn sức mạnh của các hệ thống sử dụng luật để biểu diễn tri thức và suy diễn trong các chẩn đoán và liệu pháp y học trong một chương trình mà đối khi được gọi là hệ chuyên gia đầu tiên. Hans Moravec phát triển chiếc xe đầu tiên được máy tính điều khiển tự động vượt chướng ngại vật.

Thập niên 1980, mạng nơ-ron được sử dụng rộng rãi với thuật toán truyền ngược (backpropagation), thuật toán này đã được mô tả đầu tiên bởi Paul John Werbos vào năm 1974. Thập niên 1990 đánh dấu các thành tựu chính trong nhiều lĩnh vực của AI và được thể hiện trong nhiều ứng dụng đa dạng. Nổi tiếng nhất là Deep Blue, một máy tính chơi cờ vua đã thắng Garry Kasparov trong một trận đấu 6 ván nổi tiếng năm 1997. DARPA tuyên bố rằng chi phí tiết kiệm được do cài đặt các phương pháp AI cho việc lập lịch cho các đơn vị trong Chiến tranh vùng Vịnh lần thứ nhất đã bù lại được toàn bộ đầu tư của chính phủ Mỹ cho nghiên cứu AI kể từ thập niên 1950.




Triết lý Trí tuệ nhân tạo


AI mạnh hay AI yếu, đó vẫn là một chủ đề tranh luận nóng hổi của các nhà triết học AI. Nó liên quan tới philosophy of mind và mind-body problem. Đáng chú ý nhất là Roger Penrose trong tác phẩm The Emperor's New Mind và John Searle với thí nghiệm tư duy trong cuốn Chinese room (Căn phòng tiếng Trung) khẳng định rằng các hệ thống logic hình thức không thể đạt được nhận thức thực sự, trong khi Douglas Hofstadter trong Gödel, Escher, Bach và Daniel Dennett trong Consciousness Explained ủng hộ thuyết chức năng. Theo quan điểm của nhiều người ủng hộ AI mạnh, nhận thức nhân tạo được coi là "chén thánh " của AI.

Tác động của AI


Sau khi nhà vật lý học Stephen HawkingElon Musk cảnh báo về mối đe dọa tiềm ẩn của trí tuệ nhân tạo, nhiều người cho rằng họ đã quá lo xa trong khi AI đang giúp ích rất nhiều cho cuộc sống của chúng ta. Stephen Hawking khẳng định “Trí tuệ nhân tạo có thể là dấu chấm hết cho nhân loại khi nó phát triển đến mức hoàn thiện nhất”.


Nhà vật lý stephen hawking


Tác động đầu tiên của trí tuệ nhân tạo mà chúng ta có thể dễ dàng nhận thấy chính là lượng thất nghiệp tăng cao. Nếu AI phát triển hoàn thiện với khả năng thay thế con người trong các công việc trí tuệ như chăm sóc sức khỏe, phục vụ, sản xuất theo dây chuyền tự động, công việc văn phòng... Một chiếc máy tính sẽ có thể giải quyết công việc kế toán của tất cả nhân viên trong một công ty.

Theo Bill Joy, người đồng sáng lập và Giám đốc khoa học của Sun Microsystems: "Có một vấn đề rất lớn đối với xã hội loài người khi AI trở nên phổ biến, đó là chúng ta sẽ bị lệ thuộc. Khi AI trở nên hoàn thiện và thông minh hơn, chúng ta sẽ cho phép mình nghe theo những quyết định của máy móc, vì đơn giản là các cỗ máy luôn đưa ra quyết định chính xác hơn con người."

Theo Andrew Maynard, nhà vật lý và là người giám đốc Trung tâm nghiên cứu rủi ro khoa học tại đại học Michigan: "Khi AI kết hợp với công nghệ nano có thể là bước tiến đột phá của khoa học, những cũng có thể là mối đe dọa lớn nhất đối với con người. Trong khi Bộ quốc phòng Mỹ đang nghiên cứu dự án Autonomous Tactical Robot (EATR), trong đó các robot sẽ sử dụng công nghệ nano để hấp thụ năng lượng bằng những chất hữu cơ có thể là xác người. 

Đó thực sự là mối đe dọa lớn nhất, khi các robot nano tự tạo ra năng lượng bằng cách ăn các chất hữu cơ từ cây cối và động vật, có thể là cả con người. Nghe có vẻ giống như trong các bộ phim viễn tưởng, nhưng đó là điều hoàn toàn có thể xảy ra. Có lẽ chúng ta nên bắt đầu sợ ngay từ bây giờ."


Theo wikipedia

Previous
Next Post »

dacluu03@gmail.com ConversionConversion EmoticonEmoticon