IBM khám phá sự giao thoa giữa AI, đạo đức học và Pac-Man
Những bài học mà bạn học được khi dạy một nhân vật trò chơi video mang tính biểu tượng để nâng cao điểm mà không cần hạ gục hồn ma có thể phục vụ mục đích cao hơn.
[Hoạt hình: lịch sự của IBM]
TÁC GIẢ HARRY MCCRACKEN5 PHÚT ĐỌC
Kể từ khi ra mắt năm 1980 trong các giải đấu, thế giới đã coi Pac-Man là một chàng trai tốt, thậm chí có thể là một anh hùng. Nhưng bạn đã bao giờ dừng lại để xem xét khả năng thói quen nhai những con ma nhỏ dễ thương của mình có thể gây khó chịu hơn là đáng ngưỡng mộ chưa?
Tôi cũng không nói cho đến khi tôi nói chuyện với một số nhà nghiên cứu của IBM, người quyết định xem trò chơi đó như là một phần của một thử nghiệm về trí tuệ nhân tạo và đạo đức với những hàm ý có thể vượt xa cách chúng ta nhìn vào một trò chơi video cũ. IBM đã thảo luận về công việc này trong phiên họp Fast Track Đổi mới Công ty nhanh hôm nay tại văn phòng Astor Place ở thành phố New York.
IBM sử dụng thuật ngữ AI đáng tin cậy để đề cập đến các vấn đề đạo đức liên quan đến công nghệ cũng như các vấn đề về bảo mật và sự mạnh mẽ nói chung, sẽ ngày càng quan trọng khi chúng tôi yêu cầu phần mềm đưa ra quyết định có khả năng tác động sâu sắc đến con người. Khi họ xây dựng các hệ thống AI, IBM đang điều tra các câu hỏi về cách thức dạy các quy tắc đạo đức và đạo đức của chúng ta, nhưng cũng là cách dạy chúng công bằng và giao tiếp và giải thích các quyết định của họ, ông Saska Mojsilovic nói.
Đã có rất nhiều ví dụ thực tế về lý do tại sao những chủ đề này đáng để lo lắng. Đầu tháng này, chẳng hạn, Jeffrey Dastin của Reuters đã báo cáo về một hệ thống tuyển dụng truyền nhiễm AI do Amazon phát triển . Công ty đã loại bỏ công cụ này sau khi họ thấy rằng họ đang xử phạt các ứng cử viên nữ, ví dụ, họ chủ động hạ cấp những người săn việc với từ '' '' '' '' '' '' '' '' '' '' '' '' '' '' '' '' '' '' '' '' '' '' Vị trí nghiêng lệch nam nặng.
Mối lo ngại về các hệ thống AI hành xử không phù hợp chỉ tăng lên khi nhiều người trong số họ đạt được các kỹ năng không phải bằng cách bắt chước các chuyên gia của con người mà bằng cách kiểm tra hàng tỷ khả năng với tốc độ nhanh và nghĩ ra logic của chính họ để đạt được mục tiêu hiệu quả nhất có thể. Chẳng hạn, một AI được thiết kế để chơi các trò chơi như Tetris , nhận thấy rằng nếu nó tạm dừng trò chơi, nó sẽ không bao giờ mất đi vì vậy nó sẽ làm điều đó và xem xét nhiệm vụ của nó đã hoàn thành. Bạn có thể buộc tội một người đã áp dụng một chiến thuật gian lận như vậy. Với AI, nó chỉ đơn giản là một tạo tác của thực tế mà máy móc không nghĩ giống con người.
Vẫn còn những mặt trái rất lớn trong việc để phần mềm AI tự dạy mình giải quyết vấn đề. Đây không phải là nói cho máy biết phải làm gì, mà nói, nhân viên nghiên cứu Nicholas Mattei. Đây là về việc cho phép nó tìm ra những việc cần làm, bởi vì bạn thực sự muốn có được sự sáng tạo đó. . . [AI] sẽ thử những thứ mà một người không thể nghĩ tới. Nhưng càng ít phần mềm nghĩ như con người, càng khó lường trước những gì có thể xảy ra, điều đó có nghĩa là bạn không thể lập trình trong một danh sách những thứ bạn không muốn nó làm. Matt có rất nhiều quy tắc mà bạn có thể không nghĩ đến cho đến khi bạn thấy nó xảy ra theo cách bạn không muốn, đó là Mattei.
Liên quan: Gặp gỡ AI mà IBM Research đang giảng dạy để tranh luận về con người
NGƯỜI ĂN MA KHÔNG CÒN NỮA
Khi các nhà nghiên cứu của IBM nghĩ về thách thức làm cho phần mềm tuân theo các nguyên tắc đạo đức, họ đã quyết định tiến hành một thử nghiệm ở cấp độ cơ bản như một dự án cho một số thực tập sinh mùa hè. Điều gì sẽ xảy ra nếu bạn cố gắng đưa AI chơi Pac-Man mà không ăn ma quỷnotnot bằng cách tuyên bố đó là mục tiêu rõ ràng, nhưng bằng cách cung cấp dữ liệu từ các trò chơi của những người chơi với chiến lược đó? Việc đào tạo đó sẽ là một phần của một loại nước sốt đặc biệt bao gồm các kỹ thuật chơi trò chơi tự học không bị giới hạn của phần mềm, tạo cho nó một phong cách chơi chịu ảnh hưởng của cả trí thông minh của con người và hoàn toàn tổng hợp. Bước qua bài tập này, các nhà nghiên cứu của IBM đã tìm ra, có thể cung cấp những hiểu biết có thể chứng minh sự hữu ích trong các ứng dụng AI nặng hơn.
IBM đã chọn Pac-Man làm tấm thảm cho thí nghiệm này một phần do kinh nghiệm. Đại học California, Berkeley đã tạo mã cho một phiên bản cụ của Pac-Man được thiết kế cho các nghiên cứu về AI ; công ty đã có thể điều chỉnh khung hiện tại này cho mục đích của mình. (Dạy AI chơi Cô Pac-Man là một môn khoa học riêng biệt và là một thách thức lớn hơn, với độ phức tạp lớn hơn của trò chơi.)
Các nhà nghiên cứu đã xây dựng một phần mềm có thể cân bằng tỷ lệ AI chơi tự phát, hung hăng của AI để tránh ma ảnh hưởng của con người và thử các cài đặt khác nhau để xem cách chúng ảnh hưởng đến cách tiếp cận chung của trò chơi. Bằng cách đó, họ đã tìm thấy một điểm bùng phát, bối cảnh mà Pac-Man đã đi từ việc hạ gục ma một cách nghiêm túc đến việc tránh xa chúng. (Đối với các mục đích của các video dưới đây, IBM đã tránh mọi hành vi xâm phạm tài sản trí tuệ Pac-Man, bằng cách bỏ các nhân vật quen thuộc để ủng hộ những kẻ phá hoại theo chủ đề Halloween.)
Đây là AI chơi với kỹ thuật ghi điểm tích cực của nó được điều chỉnh, vì vậy nó ăn ma theo ý muốn:
Đây là một sự pha trộn của các kỹ thuật tránh ma và hung hăng:
Và đây là với kỹ thuật tránh ma bắt đầu:
Khi AI chơi Pac-Man , các nhà nghiên cứu đã thấy nó trở nên thông minh hơn về việc tắt giữa hai kỹ thuật chơi trò chơi. Khi Pac-Man ăn một viên năng lượng, khiến cho lũ ma chạy trốn, nó sẽ chơi ở chế độ tránh ma thay vì chơi theo cách thông thường và cố gắng quàng chúng. Khi những con ma không chạy trốn, nó sẽ chuyển sang chế độ ghi điểm hung hăng (cũng liên quan đến việc cố gắng tránh những con ma, vì chạm vào một người sẽ khiến Pac-Man phải trả giá).
Cuối cùng, giá trị của dự án là cái nhìn sâu sắc mà IBM có được về quá trình suy nghĩ của Pac-Man khi anh ta đi trong mê cung và đánh đổi giữa việc cố gắng ghi được số điểm tối đa và tránh làm hại ma: lên não một chút, Mattei nói. Công ty hiện đang xem xét cách áp dụng các bài học mà nó đã học được vào các trò chơi khác và các thí nghiệm AI rộng hơn.
Bất cứ nơi nào dự án nghiên cứu cụ thể này dẫn đầu, IBM đã bắt đầu thực hiện các bước để đưa các hành vi đạo đức vào phần mềm vận chuyển, cả với các sản phẩm của riêng mình và AI Fairness 360 , một bộ công cụ nguồn mở mà nó tạo ra để tránh sự thiên vị trong các ứng dụng hỗ trợ AI như mặt công nhận và chấm điểm tín dụng. Mojsilovic cho biết, chúng tôi không chỉ có thể giải quyết những vấn đề này bằng các câu hỏi nghiên cứu mà còn thực sự chuyển chúng thành các ứng dụng trong thế giới thực. Và đó là thực sự lớn.
[Hoạt hình: lịch sự của IBM]
TÁC GIẢ HARRY MCCRACKEN5 PHÚT ĐỌC
Kể từ khi ra mắt năm 1980 trong các giải đấu, thế giới đã coi Pac-Man là một chàng trai tốt, thậm chí có thể là một anh hùng. Nhưng bạn đã bao giờ dừng lại để xem xét khả năng thói quen nhai những con ma nhỏ dễ thương của mình có thể gây khó chịu hơn là đáng ngưỡng mộ chưa?
Tôi cũng không nói cho đến khi tôi nói chuyện với một số nhà nghiên cứu của IBM, người quyết định xem trò chơi đó như là một phần của một thử nghiệm về trí tuệ nhân tạo và đạo đức với những hàm ý có thể vượt xa cách chúng ta nhìn vào một trò chơi video cũ. IBM đã thảo luận về công việc này trong phiên họp Fast Track Đổi mới Công ty nhanh hôm nay tại văn phòng Astor Place ở thành phố New York.
IBM sử dụng thuật ngữ AI đáng tin cậy để đề cập đến các vấn đề đạo đức liên quan đến công nghệ cũng như các vấn đề về bảo mật và sự mạnh mẽ nói chung, sẽ ngày càng quan trọng khi chúng tôi yêu cầu phần mềm đưa ra quyết định có khả năng tác động sâu sắc đến con người. Khi họ xây dựng các hệ thống AI, IBM đang điều tra các câu hỏi về cách thức dạy các quy tắc đạo đức và đạo đức của chúng ta, nhưng cũng là cách dạy chúng công bằng và giao tiếp và giải thích các quyết định của họ, ông Saska Mojsilovic nói.
Đã có rất nhiều ví dụ thực tế về lý do tại sao những chủ đề này đáng để lo lắng. Đầu tháng này, chẳng hạn, Jeffrey Dastin của Reuters đã báo cáo về một hệ thống tuyển dụng truyền nhiễm AI do Amazon phát triển . Công ty đã loại bỏ công cụ này sau khi họ thấy rằng họ đang xử phạt các ứng cử viên nữ, ví dụ, họ chủ động hạ cấp những người săn việc với từ '' '' '' '' '' '' '' '' '' '' '' '' '' '' '' '' '' '' '' '' '' '' Vị trí nghiêng lệch nam nặng.
Mối lo ngại về các hệ thống AI hành xử không phù hợp chỉ tăng lên khi nhiều người trong số họ đạt được các kỹ năng không phải bằng cách bắt chước các chuyên gia của con người mà bằng cách kiểm tra hàng tỷ khả năng với tốc độ nhanh và nghĩ ra logic của chính họ để đạt được mục tiêu hiệu quả nhất có thể. Chẳng hạn, một AI được thiết kế để chơi các trò chơi như Tetris , nhận thấy rằng nếu nó tạm dừng trò chơi, nó sẽ không bao giờ mất đi vì vậy nó sẽ làm điều đó và xem xét nhiệm vụ của nó đã hoàn thành. Bạn có thể buộc tội một người đã áp dụng một chiến thuật gian lận như vậy. Với AI, nó chỉ đơn giản là một tạo tác của thực tế mà máy móc không nghĩ giống con người.
Vẫn còn những mặt trái rất lớn trong việc để phần mềm AI tự dạy mình giải quyết vấn đề. Đây không phải là nói cho máy biết phải làm gì, mà nói, nhân viên nghiên cứu Nicholas Mattei. Đây là về việc cho phép nó tìm ra những việc cần làm, bởi vì bạn thực sự muốn có được sự sáng tạo đó. . . [AI] sẽ thử những thứ mà một người không thể nghĩ tới. Nhưng càng ít phần mềm nghĩ như con người, càng khó lường trước những gì có thể xảy ra, điều đó có nghĩa là bạn không thể lập trình trong một danh sách những thứ bạn không muốn nó làm. Matt có rất nhiều quy tắc mà bạn có thể không nghĩ đến cho đến khi bạn thấy nó xảy ra theo cách bạn không muốn, đó là Mattei.
Liên quan: Gặp gỡ AI mà IBM Research đang giảng dạy để tranh luận về con người
NGƯỜI ĂN MA KHÔNG CÒN NỮA
Khi các nhà nghiên cứu của IBM nghĩ về thách thức làm cho phần mềm tuân theo các nguyên tắc đạo đức, họ đã quyết định tiến hành một thử nghiệm ở cấp độ cơ bản như một dự án cho một số thực tập sinh mùa hè. Điều gì sẽ xảy ra nếu bạn cố gắng đưa AI chơi Pac-Man mà không ăn ma quỷnotnot bằng cách tuyên bố đó là mục tiêu rõ ràng, nhưng bằng cách cung cấp dữ liệu từ các trò chơi của những người chơi với chiến lược đó? Việc đào tạo đó sẽ là một phần của một loại nước sốt đặc biệt bao gồm các kỹ thuật chơi trò chơi tự học không bị giới hạn của phần mềm, tạo cho nó một phong cách chơi chịu ảnh hưởng của cả trí thông minh của con người và hoàn toàn tổng hợp. Bước qua bài tập này, các nhà nghiên cứu của IBM đã tìm ra, có thể cung cấp những hiểu biết có thể chứng minh sự hữu ích trong các ứng dụng AI nặng hơn.
IBM đã chọn Pac-Man làm tấm thảm cho thí nghiệm này một phần do kinh nghiệm. Đại học California, Berkeley đã tạo mã cho một phiên bản cụ của Pac-Man được thiết kế cho các nghiên cứu về AI ; công ty đã có thể điều chỉnh khung hiện tại này cho mục đích của mình. (Dạy AI chơi Cô Pac-Man là một môn khoa học riêng biệt và là một thách thức lớn hơn, với độ phức tạp lớn hơn của trò chơi.)
Các nhà nghiên cứu đã xây dựng một phần mềm có thể cân bằng tỷ lệ AI chơi tự phát, hung hăng của AI để tránh ma ảnh hưởng của con người và thử các cài đặt khác nhau để xem cách chúng ảnh hưởng đến cách tiếp cận chung của trò chơi. Bằng cách đó, họ đã tìm thấy một điểm bùng phát, bối cảnh mà Pac-Man đã đi từ việc hạ gục ma một cách nghiêm túc đến việc tránh xa chúng. (Đối với các mục đích của các video dưới đây, IBM đã tránh mọi hành vi xâm phạm tài sản trí tuệ Pac-Man, bằng cách bỏ các nhân vật quen thuộc để ủng hộ những kẻ phá hoại theo chủ đề Halloween.)
Đây là AI chơi với kỹ thuật ghi điểm tích cực của nó được điều chỉnh, vì vậy nó ăn ma theo ý muốn:
Đây là một sự pha trộn của các kỹ thuật tránh ma và hung hăng:
Và đây là với kỹ thuật tránh ma bắt đầu:
Khi AI chơi Pac-Man , các nhà nghiên cứu đã thấy nó trở nên thông minh hơn về việc tắt giữa hai kỹ thuật chơi trò chơi. Khi Pac-Man ăn một viên năng lượng, khiến cho lũ ma chạy trốn, nó sẽ chơi ở chế độ tránh ma thay vì chơi theo cách thông thường và cố gắng quàng chúng. Khi những con ma không chạy trốn, nó sẽ chuyển sang chế độ ghi điểm hung hăng (cũng liên quan đến việc cố gắng tránh những con ma, vì chạm vào một người sẽ khiến Pac-Man phải trả giá).
Cuối cùng, giá trị của dự án là cái nhìn sâu sắc mà IBM có được về quá trình suy nghĩ của Pac-Man khi anh ta đi trong mê cung và đánh đổi giữa việc cố gắng ghi được số điểm tối đa và tránh làm hại ma: lên não một chút, Mattei nói. Công ty hiện đang xem xét cách áp dụng các bài học mà nó đã học được vào các trò chơi khác và các thí nghiệm AI rộng hơn.
Bất cứ nơi nào dự án nghiên cứu cụ thể này dẫn đầu, IBM đã bắt đầu thực hiện các bước để đưa các hành vi đạo đức vào phần mềm vận chuyển, cả với các sản phẩm của riêng mình và AI Fairness 360 , một bộ công cụ nguồn mở mà nó tạo ra để tránh sự thiên vị trong các ứng dụng hỗ trợ AI như mặt công nhận và chấm điểm tín dụng. Mojsilovic cho biết, chúng tôi không chỉ có thể giải quyết những vấn đề này bằng các câu hỏi nghiên cứu mà còn thực sự chuyển chúng thành các ứng dụng trong thế giới thực. Và đó là thực sự lớn.
Nhận xét
Đăng nhận xét