Robot liệu có cai trị con người?
Một số khoa học gia nói chúng ta đang bước vào thời trí thông minh nhân tạo (AI) sẽ vượt xa trí tuệ con người và có khả năng tự cải thiện nhanh chóng.
Điều gì sẽ xảy ra với nhân loại khi điều đó xảy ra?
Trong những năm gần đây, những tiếng nói quan trọng như Stephen Hawking, Elon Musk hoặc Bill Gates đã cảnh báo về khả năng AI trở nên thông minh siêu phàm, gây nguy hiểm cho nhân loại.
Họ đã có những hành động đi đôi với lời nói: Musk là một trong nhiều tỷ phú đang gây quỹ cho OpenAI, một tổ chức có nhiệm vụ phát minh ra AI với mục tiêu giúp ích cho nhân loại.
Thế nhưng nhiều người khác cho rằng mối nguy này đang bị thổi phồng. Andrew Ng tại Đại học Stanford, người đồng thời là trưởng khoa học gia của Baidu, hãng công nghệ khổng lồ Trung Quốc, cho rằng việc lo lắng về sự nổi loạn của robot không khác gì việc lo lắng về tình trạng quá tải dân số trên Sao Hoả.
Điều này không có nghĩa là sự phụ thuộc của con người vào AI không mang lại rủi ro nào. Trên thực tế, rất nhiều trong số các nguy cơ này đã và đang xảy ra.
Trong lúc các hệ thống thông minh đang ngày càng đóng vai trò lớn hơn trong những lĩnh vực như y tế, tài chính cho đến hành pháp, chúng ta cũng đối mặt với nguy cơ những phần quan trọng trong cuộc sống của mình đang được quyết định một cách thiếu thận trọng.
Bên cạnh đó, AI cũng có thể mang lại những tác động mà chúng ta không ngờ tới, ví dụ như sự thay đổi trong quan hệ của chúng ta với các bác sỹ, hoặc cách mà chúng ta bị giám sát.
Trí tuệ nhân tạo đơn giản là những cỗ máy thực hiện những nhiệm vụ yêu cầu trí thông minh của con người: Hiểu ngôn ngữ, nhận diện khuôn mặt trong ảnh, lái xe hoặc chọn lọc ra những cuốn sách mà chúng ta có thể thích dựa vào những cuốn chúng ta đã đọc trước đó.
Nó khác biệt với những cánh tay robot ở một nhà máy được lập trình để lặp đi lặp lại một nhiệm vụ, hay một cánh tay robot học cách thực hiện các nhiệm vụ khác nhau qua nhiều lần thử và thất bại.
Trí tuệ nhân tạo đang giúp chúng ta thế nào?
Giải pháp AI phổ biến nhất hiện nay đó là AI có khả năng tự huấn luyện chính mình. Chúng là những chương trình có thể chọn lọc và phản hồi dựa trên số lượng dữ liệu lớn, ví dụ như nhận dạng khuôn mặt trong một tấm hình hoặc chọn ra một nước đi đúng trên bàn cờ vây.
Thế nhưng công nghệ này cũng có thể mang lại đủ thứ rắc rối, ví dụ như khi ta yêu cầu máy tính phát hiện ra các khuôn mẫu trong những hình chụp y học.
Công ty AI của Google, DeepMind, đang hợp tác với Dịch vụ Y tế Quốc gia (NHS) của Anh trong nhiều dự án.
Một trong các dự án này đang nghiên cứu phần mềm có khả năng nhận biết ung thư hoặc các bệnh liên quan đến mắt dựa trên kết quả chụp cắt lớp của bệnh nhân. Một số dự án khác thì dùng máy tính có khả năng phát hiện sớm các dấu hiệu của bệnh tim hoặc bệnh mất trí nhớ.
Trí thông minh nhân tạo cũng được sử dụng để phân tích một lượng lớn thông tin về phân tử để tìm ra những loại thuốc nhiều tiềm năng – một quy trình sẽ tốn rất nhiều thời gian nếu sử dụng sức người. Trên thực tế, máy tính sẽ trở nên không thể thiếu trong lĩnh vực y tế.
Trí tuệ nhân tạo cũng có thể giúp chúng ta quản lý những hệ thống vô cùng phức tạp như mạng lưới vận tải. Tại khu vực container ở Cảng Botany, Sydney, các xe không người lái được sử dụng để vận chuyển hàng nghìn container ra vào cảng.
Tương tự, trong ngành khai khoáng, các hệ thống thông minh cũng được sử dụng để lên kế hoạch và điều phối việc di chuyển khoáng sản, ví dụ như đưa quặng đồng từ phương tiện vận tải ban đầu đến những xe tải lớn không người lái và từ đó đưa lên các tàu chở quặng ra cảng.
Trí thông minh nhân tạo xuất hiện ở mọi nơi, từ các ngành công nghiệp, tài chính cho đến vận tải. Chúng quan sát thị trường chứng khoán để giúp phát hiện ra gian lận hoặc giám sát các phương tiện lưu thông trên đường bộ cũng như trên bầu trời. Chúng cũng giúp ngăn email rác tìm đến hộp thư của bạn.
Đây chỉ là khởi đầu của trí thông minh nhân tạo. Công nghệ phát triển sẽ giúp cho ra đời ngày càng nhiều ứng dụng hơn.
Vậy vấn đề là gì?
Thay vì lo lắng về việc AI nổi loạn, nguy cơ lớn nhất mà chúng ta cần đối mặt đó là việc ta quá tin tưởng vào những hệ thống thông minh mà mình đang xây dựng.
Ví dụ như trường hợp máy tính có khả năng phát hiện ra những mô hình trong dữ liệu. Một khi được lập trình đúng, nó sẽ phân tích được những dữ liệu mới. Thế nhưng khi nó đưa ra câu trả lời, chúng ta thường không thể hiểu được nó đã đưa ra câu trả lời đó như thế nào.
Điều này dẫn tới nhiều vấn đề. Các hệ thống phụ thuộc rất lớn vào những dữ liệu mà chúng ta cài đặt cho chúng.
Ví dụ như một hệ thống được lập trình để hiểu rằng các bệnh nhân bị viêm phổi đối mặt với nguy cơ tử vong cao hơn, và vì vậy họ cần được đưa vào bệnh viện để điều trị. Thế nhưng chính vì vậy nó lại cho rằng các bệnh nhân bị suyễn có nguy cơ tử vong thấp hơn.
Thực ra, trong các tình huống bình thường thì những người bị viêm phổi và đã có tiền sử bệnh suyễn sẽ được đưa thẳng vào nơi điều trị đặc biệt và điều này giúp họ giảm nguy cơ tử vong đáng kể. Thế nhưng hệ thống lại nghĩ rằng bệnh viêm phổi + bệnh suyễn có nghĩa là nguy cơ tử vong thấp.
Ngày nay, khi mà AI phải xử lý tất cả mọi thông tin, từ điểm tín dụng của bạn cho đến tính bền vững trong công việc hoặc khả năng tội phạm tái phạm, khả năng chúng gây ra sai sót mà không bị phát hiện đang ngày càng lớn hơn.
Chính vì thông tin được cung cấp cho AI cũng không phải hoàn hảo, chúng ta cũng không nên mong chờ vào những câu trả lời hoàn hảo mọi lúc mọi nơi. Việc nhận biết điều này là bước đi đầu tiên nhằm quản lý rủi ro.
Các quy trình đưa ra quyết định được lập trình cho AI cần được xử lý kỹ lưỡng hơn. Bởi vì chúng ta xây dựng AI dựa theo chính mình, chúng có thể thông minh và đồng thời kém hoàn hảo như chính chúng ta.
Theo: BBCFuture