Bước tới nội dung

Khác biệt giữa bản sửa đổi của “Thành viên:Qesefe/nháp”

Bách khoa toàn thư mở Wikipedia
Nội dung được xóa Nội dung được thêm vào
Qesefe (thảo luận | đóng góp)
nháp
Qesefe (thảo luận | đóng góp)
nháp
Dòng 31: Dòng 31:
===Rủi ro của trí tuệ nhân tạo===
===Rủi ro của trí tuệ nhân tạo===


Trước khi rời Google, Hinton từng tin rằng [[trí tuệ nhân tạo tổng quát]] (AGI) còn "30 đến 50 năm hoặc lâu hơn" mới xuất hiện. Tuy nhiên, trong một cuộc phỏng vấn với CBS vào tháng 3 năm 2023, ông thay đổi quan điểm và cho rằng AI đa năng có thể xuất hiện trong chưa đến 20 năm, với những thay đổi "có quy mô tương đương cuộc Cách mạng Công nghiệp hoặc sự ra đời của điện".<ref>{{Chú thích phương tiện |people=Jacobson, Dana (host); Silva-Braga, Brook (reporter); Hinton, Geoffrey (guest) |date=25 tháng 3 năm 2023 |title='Godfather of artificial intelligence' talks impact and potential of new AI |series=CBS Saturday Morning |url=https://www.cbsnews.com/video/godfather-of-artificial-intelligence-talks-impact-and-potential-of-new-ai/}}</ref> Sau khi rời Google, ông trở thành một trong những người lên tiếng mạnh mẽ nhất về an toàn AI, bày tỏ lo ngại trên nhiều khía cạnh khác nhau.
Trước khi rời Google, Hinton từng tin rằng [[trí tuệ nhân tạo tổng quát]] (AGI) còn "30 đến 50 năm hoặc lâu hơn" mới xuất hiện. Tuy nhiên, trong một cuộc phỏng vấn với CBS vào tháng 3 năm 2023, ông thay đổi quan điểm và cho rằng AI đa năng có thể xuất hiện trong chưa đến 20 năm, với những thay đổi "có quy mô tương đương cuộc [[Cách mạng Công nghiệp]] hoặc sự ra đời của [[điện]]".<ref>{{Chú thích phương tiện |people=Jacobson, Dana (host); Silva-Braga, Brook (reporter); Hinton, Geoffrey (guest) |date=25 tháng 3 năm 2023 |title='Godfather of artificial intelligence' talks impact and potential of new AI |series=CBS Saturday Morning |url=https://www.cbsnews.com/video/godfather-of-artificial-intelligence-talks-impact-and-potential-of-new-ai/}}</ref> Sau khi rời Google, ông trở thành một trong những người lên tiếng mạnh mẽ nhất về an toàn AI, bày tỏ lo ngại trên nhiều khía cạnh khác nhau.


====Nguy hiện hữu====
====Lạm dụng AI có chủ ý====


Hinton bày tỏ lo ngại về khả năng AI thể đe dọa sự tồn tại của loài người, nói rằng điều này "không phải không thể xảy ra".<ref>{{Chú thích phương tiện |last=Hinton |first=Geoffrey |date=25 tháng 3 năm 2023 |title=Full interview: 'Godfather of artificial intelligence' talks impact and potential of AI |url=https://www.youtube.com/watch?v=qpoRO378qRY |publisher=CBS News}}</ref> Ông lo ngại rằng các hệ thống AI thể tự hình thành các "mục tiêu phụ" không phù hợp với ý định của người lập trình, thể trở nên "tìm kiếm quyền lực" hoặc tự ngăn chặn việc bị tắt, không phải người lập trình muốn vậy những mục tiêu đó hữu ích cho việc đạt được các mục tiêu sau này. Ông nhấn mạnh rằng cần "suy nghĩ nghiêm túc về cách kiểm soát" các hệ thống AI khả năng tự cải thiện.
Hinton bày tỏ lo ngại về việc AI bị các tác nhân xấu lợi dụng chủ ý, nói rằng "rất khó để thấy cách nào có thể ngăn chặn những kẻ xấu sử dụng AI cho những mục đích xấu."<ref>{{Chú thích báo |last=Metz |first=Cade |date=1 tháng 5 năm 2023 |title='The Godfather of A.I.' Leaves Google and Warns of Danger Ahead |url=https://www.nytimes.com/2023/05/01/technology/ai-google-chatbot-engineer-quits-hinton.html |work=The New York Times}}</ref> Từ năm 2017, ông đã kêu gọi lệnh cấm quốc tế đối với [[vũ khí tự động gây chết người]].<ref>{{Chú thích web |title=Call for an International Ban on the Weaponization of Artificial Intelligence |url=https://techlaw.uottawa.ca/bankillerai |website=University of Ottawa: Centre for Law, Technology and Society}}</ref> Vào năm 2025, ông xác định việc AI bị kẻ xấu sử dụng để tạo ra virus gây chết người là một trong những mối đe dọa hiện hữu nghiêm trọng nhất trong ngắn hạn, nói rằng "giờ đây ai cũng có thể tạo ra các loại virus mới với chi phí tương đối thấp nhờ AI."<ref>{{Chú thích phương tiện |date=16 tháng 6 năm 2025 |title=Godfather of AI: I Tried to Warn Them, But We've Already Lost Control! Geoffrey Hinton |url=https://www.youtube.com/watch?v=giT0ytynSqg |publisher=The Diary of a CEO}}</ref>


====Nguy cơ AI thống trị con người====
Tính đến cuối năm 2024, Hinton ước tính có khoảng 10 đến 20 phần trăm khả năng AI sẽ gây ra sự tuyệt chủng của loài người trong vòng ba thập kỷ tới — tăng so với ước tính 10 phần trăm trước đó của ông mà không kèm khung thời gian cụ thể.<ref>{{Chú thích báo |last=Milmo |first=Dan |date=27 tháng 12 năm 2024 |title='Godfather of AI' shortens odds of the technology wiping out humanity over next 30 years |url=https://www.theguardian.com/technology/2024/dec/27/godfather-of-ai-raises-odds-of-the-technology-wiping-out-humanity-over-next-30-years |work=The Guardian}}</ref> Vào năm 2025, ông phát biểu: "Nỗi sợ lớn nhất của tôi là về lâu dài, những thực thể kỹ thuật số chúng ta đang tạo ra sẽ là dạng trí tuệ vượt trội hơn con người. [...] Chúng ta sẽ không còn cần thiết nữa. [...] Nếu bạn muốn biết cảm giác không phải là trí tuệ đỉnh cao là như thế nào, hãy hỏi một con gà."<ref>{{Chú thích phỏng vấn |last=Hinton |first=Geoffrey |date=27 tháng 5 năm 2025 |title=Humans 'no longer needed' – Godfather of AI |url=https://www.youtube.com/watch?v=uuOPOO90NBo |publisher=RNZ}}</ref>


Hinton bày tỏ lo ngại về khả năng AI có thể đe dọa sự tồn tại của loài người, nói rằng điều này "không phải là không thể xảy ra".<ref>{{Chú thích phương tiện |last=Hinton |first=Geoffrey |date=25 tháng 3 năm 2023 |title=Full interview: 'Godfather of artificial intelligence' talks impact and potential of AI |url=https://www.youtube.com/watch?v=qpoRO378qRY |publisher=CBS News}}</ref> Ông lo ngại rằng các hệ thống AI có thể tự hình thành các "mục tiêu phụ" không phù hợp với ý định của người lập trình, và có thể trở nên "tìm kiếm quyền lực" hoặc tự ngăn chặn việc bị tắt, không phải vì người lập trình muốn vậy mà vì những hành động đó hữu ích cho việc đạt được các mục tiêu dài hạn được lập trình sẵn. Ông nhấn mạnh rằng cần "suy nghĩ nghiêm túc về cách kiểm soát" các hệ thống AI có khả năng tự cải thiện.
====Lạm dụng có chủ ý====


Hinton bày tỏ lo ngại về việc AI bị các tác nhân xấu lợi dụngchủ ý, nói rằng "rất khó để thấy cách nào thể ngăn chặn những kẻ xấu sử dụng AI cho những mục đích xấu."<ref>{{Chú thích báo |last=Metz |first=Cade |date=1 tháng 5 năm 2023 |title='The Godfather of A.I.' Leaves Google and Warns of Danger Ahead |url=https://www.nytimes.com/2023/05/01/technology/ai-google-chatbot-engineer-quits-hinton.html |work=The New York Times}}</ref> Từ năm 2017, ông đã kêu gọi lệnh cấm quốc tế đối với [[vũ khí tự động gây chết người]].<ref>{{Chú thích web |title=Call for an International Ban on the Weaponization of Artificial Intelligence |url=https://techlaw.uottawa.ca/bankillerai |website=University of Ottawa: Centre for Law, Technology and Society}}</ref> Vào năm 2025, ông xác định việc AI bị kẻ xấu sử dụng để tạo ra virus gây chết ngườimột trong những mối đe dọa hiện hữu nghiêm trọng nhất trong ngắn hạn, nói rằng "chỉ cần một kẻ điên có mối thù [...] giờ đây bạn thể tạo ra các loại virus mới với chi phí tương đối thấp nhờ AI."<ref>{{Chú thích phương tiện |date=16 tháng 6 năm 2025 |title=Godfather of AI: I Tried to Warn Them, But We've Already Lost Control! Geoffrey Hinton |url=https://www.youtube.com/watch?v=giT0ytynSqg |publisher=The Diary of a CEO}}</ref>
Tính đến cuối năm 2024, Hinton ước tínhkhoảng 10 đến 20 phần trăm khả năng AI sẽ gây ra sự tuyệt chủng của loài người trong vòng ba thập kỷ tới.<ref>{{Chú thích báo |last=Milmo |first=Dan |date=27 tháng 12 năm 2024 |title='Godfather of AI' shortens odds of the technology wiping out humanity over next 30 years |url=https://www.theguardian.com/technology/2024/dec/27/godfather-of-ai-raises-odds-of-the-technology-wiping-out-humanity-over-next-30-years |work=The Guardian}}</ref> Vào năm 2025, ông phát biểu: "Nỗi sợ lớn nhất của tôi về lâu dài, những thực thể kỹ thuật số chúng ta đang tạo ra sẽdạng trí tuệ vượt trội hơn con người. [...] Chúng ta sẽ không còn cần thiết nữa. [...] Nếu bạn muốn biết cảm giác không phải trí tuệ đỉnh cao như thế nào, hãy hỏi một con gà."<ref>{{Chú thích phỏng vấn |last=Hinton |first=Geoffrey |date=27 tháng 5 năm 2025 |title=Humans 'no longer needed' Godfather of AI |url=https://www.youtube.com/watch?v=uuOPOO90NBo |publisher=RNZ}}</ref>

Quan điểm này của ông tương đồng với một "Bố già AI" khác là [[Yoshua Bengio]], song lại trái chiều với người còn lại là [[Yann LeCun]]. Trong đó, dù cả ba người đồng ý về nguy cơ lạm dụng AI của các thế lực xấu; xong hai nhà khoa học Canada đều bày tỏ lo ngại về AI thay thế con người và đề nghị có các phương án hạn chế, trong khi LeCun coi nhẹ khả năng này và đề xuất mở mã nguồn các mô hình AI nhằm tránh thứ công nghệ này bị thâu tóm bởi bất kỳ cá nhân hay tổ chức nào.<ref name=":2">{{Chú thích web |title=‘Godfathers of AI’ Yoshua Bengio and Yann LeCun weigh in on potential of human-level AI, emerging risks and future frontiers at NUS lectures |url=https://news.nus.edu.sg/nus-120-dss-godfathers-of-ai-yoshua-bengio-and-yann-lecun/ |access-date=2026-04-16 |website=‘Godfathers of AI’ Yoshua Bengio and Yann LeCun weigh in on potential of human-level AI, emerging risks and future frontiers at NUS lectures |language=en-sg}}</ref><ref name=":4">{{Chú thích web |last=Nolan |first=Beatrice |title=The 'stakes are too high' to ignore extinction risks of AI, AI godfather warns |url=https://www.businessinsider.com/meta-ai-chief-yoshua-bengio-risk-yann-lecun-ai-godfather-2023-11 |access-date=2026-04-16 |website=Business Insider |language=en-US}}</ref><ref>{{Chú thích báo |last=Jain |first=Rounak |title='Let's Open Source Nuclear Weapons Too': Godfather Of AI Geoffrey Hinton Mocks Fellow AI Godfather's Attempts To Trivialize Risks Of AI - Alphabet (NASDAQ:GOOG), Alphabet (NASDAQ:GOOGL), Meta Platforms (NASDAQ:META) |url=https://www.benzinga.com/news/23/11/35532527/lets-open-source-nuclear-weapons-too-godfather-of-ai-geoffrey-hinton-mocks-fellow-ai-godfathers-atte |archive-url=http://web.archive.org/web/20250207022723/https://www.benzinga.com/news/23/11/35532527/lets-open-source-nuclear-weapons-too-godfather-of-ai-geoffrey-hinton-mocks-fellow-ai-godfathers-atte |archive-date=2025-02-07 |access-date=2026-04-16 |work=Benzinga |language=en}}</ref>


====Tác động kinh tế====
====Tác động kinh tế====


Trước đây, Hinton từng lạc quan về tác động kinh tế của AI, lập luận vào năm 2018 rằng AI sẽ thay thế dần các công việc thường lệ nhưng không làm con người trở nên thừa thãi hoàn toàn.<ref>{{Chú thích web |last=Wiggers |first=Kyle |date=17 tháng 12 năm 2018 |title=Geoffrey Hinton and Demis Hassabis: AGI is nowhere close to being a reality |url=https://venturebeat.com/2018/12/17/geoffrey-hinton-and-demis-hassabis-agi-is-nowhere-close-to-being-a-reality/ |website=VentureBeat}}</ref> Tuy nhiên từ năm 2023, ông trở nên lo ngại hơn, cảnh báo rằng AI sẽ "đảo lộn thị trường lao động" và lấy đi nhiều hơn chỉ những "công việc nhàm chán". Năm 2024, ông khuyến nghị chính phủ Anh thiết lập [[thu nhập cơ bản toàn dân]] để đối phó với tác động của AI lên bất bình đẳng, lập luận rằng dù AI sẽ thúc đẩy năng suất và tạo ra nhiều của cải hơn, nếu không có sự can thiệp của nhà nước thì lợi ích đó sẽ chỉ tập trung vào tay người giàu.<ref>{{Chú thích web |title=AI 'godfather' says universal basic income will be needed |url=https://www.bbc.com/news/articles/cnd607ekl99o |date=18 tháng 5 năm 2024 |website=BBC News}}</ref>
Trước đây, Hinton từng lạc quan về tác động kinh tế của AI, lập luận vào năm 2018 rằng AI sẽ thay thế dần các công việc thường lệ nhưng không làm con người trở nên thừa thãi hoàn toàn.<ref>{{Chú thích web |last=Wiggers |first=Kyle |date=17 tháng 12 năm 2018 |title=Geoffrey Hinton and Demis Hassabis: AGI is nowhere close to being a reality |url=https://venturebeat.com/2018/12/17/geoffrey-hinton-and-demis-hassabis-agi-is-nowhere-close-to-being-a-reality/ |website=VentureBeat}}</ref> Tuy nhiên từ năm 2023, ông trở nên lo ngại hơn, cảnh báo rằng AI sẽ "đảo lộn thị trường lao động" và lấy đi nhiều hơn chỉ những "công việc nhàm chán". Năm 2024, ông khuyến nghị chính phủ Anh thiết lập [[Thu nhập cơ bản vô điều kiện|thu nhập cơ bản toàn dân]] để đối phó với tác động của AI lên bất bình đẳng, lập luận rằng dù AI sẽ thúc đẩy năng suất và tạo ra nhiều của cải hơn, nếu không có sự can thiệp của nhà nước thì lợi ích đó sẽ chỉ tập trung vào tay người giàu sở hữu thứ công cụ này.<ref>{{Chú thích web |title=AI 'godfather' says universal basic income will be needed |url=https://www.bbc.com/news/articles/cnd607ekl99o |date=18 tháng 5 năm 2024 |website=BBC News}}</ref>


===Quan điểm chính trị===
===Quan điểm chính trị===

Phiên bản lúc 04:45, ngày 20 tháng 4 năm 2026

Geoffrey Hinton

Geoffrey Everest Hinton (sinh ngày 6 tháng 12 năm 1947) là nhà khoa học máy tínhnhận thức học với quốc tịch AnhCanada. Ông là giáo sư danh dự tại Đại học Toronto, đồng thời là người đồng sáng lập và cố vấn khoa học trưởng của Viện Vector tại Toronto từ năm 2017.[1]

Năm 2018, Hinton được trao Giải Turing cùng Yoshua BengioYann LeCun; bộ ba này được mệnh danh là những "Bố già AI" (Godfather of AI) nhờ những đóng góp nền tảng cho lĩnh vực mạng neuron nhân tạohọc sâu.[2] Năm 2024, ông tiếp tục được trao Giải Nobel Vật lý cùng John Hopfield cho "những khám phá và phát minh nền tảng cho phép học máy với mạng neuron nhân tạo", trong đó công trình về máy Boltzmann của ông được nhắc đến đặc biệt trong phần giải thích của Ủy ban Nobel.[3] Ngoài ra, ông còn được biết đến với các công trình phổ biến hóa thuật toán lan truyền ngược (*backpropagation*) vào năm 1986 cùng David Rumelhart và Ronald J. Williams,[4] và kiến trúc AlexNet năm 2012 - cột mốc đánh dấu bước ngoặt của thị giác máy tính hiện đại.[5]

Từ năm 2013 đến 2023, ông làm việc tại Google Brain song song với Đại học Toronto, trước khi công khai rời Google vào tháng 5 năm 2023 để tự do lên tiếng về những rủi ro của trí tuệ nhân tạo.[6] Sau khi rời Google, Hinton trở thành một trong những tiếng nói có uy tín nhất về an toàn AI, bày tỏ lo ngại về nguy cơ AI bị lạm dụng, tác động đến thị trường lao động, và rủi ro hiện hữu từ các hệ thống AI vượt tầm kiểm soát của con người.

Thơ ấu và học vấn

Hinton sinh ngày 6 tháng 12 năm 1947 tại Wimbledon, London, Anh Quốc, và theo học tại trường Clifton College ở Bristol. Ông xuất thân từ một gia đình có truyền thống khoa học và học thuật lâu đời: ông là chắt năm đời của nhà toán họcgiáo dục học Mary Everest Boole và chồng bà, nhà logic học George Boole — người có công trình về đại số Boole sau này trở thành một trong những nền tảng của ngành khoa học máy tính hiện đại.[7]

Năm 1967, Hinton theo học tại King's College, Cambridge. Sau khi thử qua nhiều ngành như khoa học tự nhiên, lịch sử nghệ thuật và triết học, ông tốt nghiệp Cử nhân tâm lý học thực nghiệm vào năm 1970.[8] Sau đó ông dành một năm học nghề thợ mộc trước khi quay lại con đường học thuật.[9] Từ năm 1972 đến 1977, ông nghiên cứu tại Đại học Edinburgh dưới sự hướng dẫn của Christopher Longuet-Higgins và nhận bằng Tiến sĩ trí tuệ nhân tạo vào năm 1978 với luận án về vai trò của quá trình thư giãn trong thị giác (Relaxation and Its Role in Vision).[8]

Sự nghiệp và nghiên cứu

Sau khi nhận bằng Tiến sĩ, Hinton làm việc tại Đại học Sussex và Đơn vị Tâm lý học Ứng dụng MRC ở Cambridge. Do gặp khó khăn trong việc xin tài trợ nghiên cứu tại Anh, ông chuyển sang Mỹ, làm việc lần lượt tại Đại học California, San DiegoĐại học Carnegie Mellon.[8] Trong thời gian tại Carnegie Mellon vào đầu thập niên 1980, ông là thành viên của nhóm "Parallel Distributed Processing" cùng với David Rumelhart, Terrence Sejnowski và James McClelland trong giai đoạn mùa đông AI. Năm 1985, ông đồng phát minh máy Boltzmann cùng David Ackley và Terry Sejnowski, một mô hình mạng neuron xác suất có khả năng học các biểu diễn dữ liệu không có giám sát.[10]

Năm 1986, trong thời gian làm nghiên cứu sinh sau tiến sĩ tại UC San Diego, Hinton cùng David Rumelhart và Ronald J. Williams công bố công trình phổ biến hóa thuật toán lan truyền ngượccho mạng neuron nhiều lớp, chứng minh rằng các mạng này có thể tự học các biểu diễn hữu ích từ dữ liệu.[11] Dù không phải là người đầu tiên đề xuất phương pháp này (Seppo Linnainmaa đã đề xuất vi phân tự động ngược chiều vào năm 1970 và Paul Werbos áp dụng nó cho mạng neuron vào năm 1974), công trình của Hinton và các cộng sự có tác động lớn trong việc đưa lan truyền ngược trở thành thuật toán huấn luyện chủ đạo của học sâu.[12]

Năm 1987, Hinton gia nhập Đại học Toronto, nơi ông gắn bó cho đến cuối sự nghiệp. Cùng năm đó, ông được bổ nhiệm làm Thành viên của Viện Nghiên cứu Cao cấp Canada (CIFAR) trong chương trình đầu tiên của viện về trí tuệ nhân tạo.[13] Năm 1995, ông và các cộng sự đề xuất thuật toán wake-sleep, một phương pháp học không có giám sát dựa trên mạng neuron với hai luồng riêng biệt cho nhận dạng và sinh dữ liệu, được huấn luyện xen kẽ qua các pha "thức" và "ngủ".[14]

Năm 2004, Hinton đề xuất thành công chương trình "Neural Computation and Adaptive Perception" tại CIFAR và lãnh đạo chương trình này trong mười năm, với Yoshua BengioYann LeCun là các thành viên.[15] Năm 2008, ông phát triển phương pháp trực quan hóa dữ liệu t-SNE cùng Laurens van der Maaten, cho phép chiếu dữ liệu nhiều chiều xuống không gian hai hoặc ba chiều để quan sát cấu trúc phân cụm.[16]

Năm 2012, Hinton cùng hai nghiên cứu sinh tiến sĩ là Alex Krizhevsky và Ilya Sutskever giới thiệu kiến trúc AlexNet, giành chiến thắng áp đảo tại cuộc thi nhận dạng hình ảnh ImageNet với tỉ lệ lỗi thấp hơn đáng kể so với các phương pháp truyền thống, đánh dấu bước ngoặt cho thị giác máy tính và thúc đẩy làn sóng ứng dụng học sâu rộng rãi sau đó.[17] Cùng năm đó, ông đồng sáng lập DNNresearch Inc. tại Đại học Toronto cùng Krizhevsky và Sutskever. Vào tháng 3 năm 2013, Google mua lại công ty này với giá 44 triệu đô la Mỹ, và Hinton bắt đầu chia thời gian giữa nghiên cứu tại đại học và công việc tại Google Brain.[18]

Trong thời gian tại Google, Hinton tiếp tục công bố nhiều công trình nghiên cứu quan trọng. Năm 2017, ông đồng tác giả hai bài báo về mạng neuron capsule (*capsule neural networks*), mở rộng khái niệm "capsule" mà ông đã giới thiệu từ năm 2011, nhằm mô hình hóa tốt hơn mối quan hệ bộ phận-tổng thể trong dữ liệu thị giác.[19] Tại hội nghị NeurIPS năm 2022, ông giới thiệu thuật toán "Forward-Forward", thay thế hai lượt truyền xuôi-ngược của lan truyền ngược bằng hai lượt truyền xuôi với dữ liệu thực và dữ liệu âm, phù hợp với các mô hình tính toán tương tự mà ông gọi là "mortal computation".[20]

Vào tháng 5 năm 2023, Hinton công khai từ chức khỏi Google, nói rằng ông muốn "tự do lên tiếng về những rủi ro của AI mà không cần cân nhắc đến tác động đối với Google."[21] Ông thừa nhận một phần hối hận về công trình cả đời của mình khi chứng kiến tốc độ phát triển của AI vượt xa những gì ông từng dự đoán.

Quan điểm

Rủi ro của trí tuệ nhân tạo

Trước khi rời Google, Hinton từng tin rằng trí tuệ nhân tạo tổng quát (AGI) còn "30 đến 50 năm hoặc lâu hơn" mới xuất hiện. Tuy nhiên, trong một cuộc phỏng vấn với CBS vào tháng 3 năm 2023, ông thay đổi quan điểm và cho rằng AI đa năng có thể xuất hiện trong chưa đến 20 năm, với những thay đổi "có quy mô tương đương cuộc Cách mạng Công nghiệp hoặc sự ra đời của điện".[22] Sau khi rời Google, ông trở thành một trong những người lên tiếng mạnh mẽ nhất về an toàn AI, bày tỏ lo ngại trên nhiều khía cạnh khác nhau.

Lạm dụng AI có chủ ý

Hinton bày tỏ lo ngại về việc AI bị các tác nhân xấu lợi dụng có chủ ý, nói rằng "rất khó để thấy cách nào có thể ngăn chặn những kẻ xấu sử dụng AI cho những mục đích xấu."[23] Từ năm 2017, ông đã kêu gọi lệnh cấm quốc tế đối với vũ khí tự động gây chết người.[24] Vào năm 2025, ông xác định việc AI bị kẻ xấu sử dụng để tạo ra virus gây chết người là một trong những mối đe dọa hiện hữu nghiêm trọng nhất trong ngắn hạn, nói rằng "giờ đây ai cũng có thể tạo ra các loại virus mới với chi phí tương đối thấp nhờ AI."[25]

Nguy cơ AI thống trị con người

Hinton bày tỏ lo ngại về khả năng AI có thể đe dọa sự tồn tại của loài người, nói rằng điều này "không phải là không thể xảy ra".[26] Ông lo ngại rằng các hệ thống AI có thể tự hình thành các "mục tiêu phụ" không phù hợp với ý định của người lập trình, và có thể trở nên "tìm kiếm quyền lực" hoặc tự ngăn chặn việc bị tắt, không phải vì người lập trình muốn vậy mà vì những hành động đó hữu ích cho việc đạt được các mục tiêu dài hạn được lập trình sẵn. Ông nhấn mạnh rằng cần "suy nghĩ nghiêm túc về cách kiểm soát" các hệ thống AI có khả năng tự cải thiện.

Tính đến cuối năm 2024, Hinton ước tính có khoảng 10 đến 20 phần trăm khả năng AI sẽ gây ra sự tuyệt chủng của loài người trong vòng ba thập kỷ tới.[27] Vào năm 2025, ông phát biểu: "Nỗi sợ lớn nhất của tôi là về lâu dài, những thực thể kỹ thuật số chúng ta đang tạo ra sẽ là dạng trí tuệ vượt trội hơn con người. [...] Chúng ta sẽ không còn cần thiết nữa. [...] Nếu bạn muốn biết cảm giác không phải là trí tuệ đỉnh cao là như thế nào, hãy hỏi một con gà."[28]

Quan điểm này của ông tương đồng với một "Bố già AI" khác là Yoshua Bengio, song lại trái chiều với người còn lại là Yann LeCun. Trong đó, dù cả ba người đồng ý về nguy cơ lạm dụng AI của các thế lực xấu; xong hai nhà khoa học Canada đều bày tỏ lo ngại về AI thay thế con người và đề nghị có các phương án hạn chế, trong khi LeCun coi nhẹ khả năng này và đề xuất mở mã nguồn các mô hình AI nhằm tránh thứ công nghệ này bị thâu tóm bởi bất kỳ cá nhân hay tổ chức nào.[29][30][31]

Tác động kinh tế

Trước đây, Hinton từng lạc quan về tác động kinh tế của AI, lập luận vào năm 2018 rằng AI sẽ thay thế dần các công việc thường lệ nhưng không làm con người trở nên thừa thãi hoàn toàn.[32] Tuy nhiên từ năm 2023, ông trở nên lo ngại hơn, cảnh báo rằng AI sẽ "đảo lộn thị trường lao động" và lấy đi nhiều hơn chỉ những "công việc nhàm chán". Năm 2024, ông khuyến nghị chính phủ Anh thiết lập thu nhập cơ bản toàn dân để đối phó với tác động của AI lên bất bình đẳng, lập luận rằng dù AI sẽ thúc đẩy năng suất và tạo ra nhiều của cải hơn, nếu không có sự can thiệp của nhà nước thì lợi ích đó sẽ chỉ tập trung vào tay người giàu sở hữu thứ công cụ này.[33]

Quan điểm chính trị

Hinton tự nhận là người theo chủ nghĩa xã hội.[34] Ông chuyển từ Mỹ sang Canada một phần do bất đồng với chính sách thời Ronald Reagan và phản đối việc quân đội tài trợ cho nghiên cứu trí tuệ nhân tạo. Năm 2024, ông đồng tác giả một bức thư cùng Yoshua Bengio, Stuart Russell và Lawrence Lessig ủng hộ dự luật an toàn AI SB 1047 của California, yêu cầu các công ty huấn luyện mô hình có chi phí trên 100 triệu đô la phải thực hiện đánh giá rủi ro trước khi triển khai, tuyên bố đây là "yêu cầu tối thiểu để quản lý hiệu quả công nghệ này."[35]

Tham khảo

  1. ^ "Geoffrey E Hinton – A.M. Turing Award Laureate". amturing.acm.org.
  2. ^ "Fathers of the Deep Learning Revolution Receive ACM A.M. Turing Award". Association for Computing Machinery. ngày 27 tháng 3 năm 2019.
  3. ^ "Press release: The Nobel Prize in Physics 2024". NobelPrize.org.
  4. ^ Rumelhart, David E.; Hinton, Geoffrey E.; Williams, Ronald J. (1986). "Learning representations by back-propagating errors". Nature. 323 (6088): 533–536. doi:10.1038/323533a0.
  5. ^ Krizhevsky, Alex; Sutskever, Ilya; Hinton, Geoffrey E. (2012). "ImageNet classification with deep convolutional neural networks". NIPS'12: Proceedings of the 25th International Conference on Neural Information Processing Systems. tr. 1097–1105.
  6. ^ Metz, Cade (ngày 1 tháng 5 năm 2023). "'The Godfather of A.I.' Leaves Google and Warns of Danger Ahead". The New York Times.
  7. ^ Martin, Alexander (ngày 18 tháng 3 năm 2021). "Geoffrey Hinton: The story of the British 'Godfather of AI'". Sky News.
  8. ^ a b c "Hinton, Prof. Geoffrey Everest". Who's Who. Oxford University Press. 2023. doi:10.1093/ww/9780199540884.013.20261.
  9. ^ Smith, Craig S. (ngày 23 tháng 6 năm 2017). "The Man Who Helped Turn Toronto into a High-Tech Hotbed". The New York Times.
  10. ^ Ackley, David H.; Hinton, Geoffrey E.; Sejnowski, Terrence J. (1985). "A learning algorithm for Boltzmann machines". Cognitive Science. 9 (1): 147–169.
  11. ^ Rumelhart, David E.; Hinton, Geoffrey E.; Williams, Ronald J. (1986). "Learning representations by back-propagating errors". Nature. 323 (6088): 533–536. doi:10.1038/323533a0.
  12. ^ Schmidhuber, Jürgen (2015). "Deep learning in neural networks: An overview". Neural Networks. 61: 85–117. doi:10.1016/j.neunet.2014.09.003.
  13. ^ "Geoffrey Hinton Biography". CIFAR.
  14. ^ Hinton, Geoffrey; Dayan, Peter; Frey, Brendan; Neal, Radford (1995). "The wake-sleep algorithm for unsupervised neural networks". Science. doi:10.1126/science.7761831.
  15. ^ "Geoffrey E Hinton – A.M. Turing Award Laureate". amturing.acm.org.
  16. ^ van der Maaten, Laurens; Hinton, Geoffrey (2008). "Visualizing Data using t-SNE". Journal of Machine Learning Research. 9: 2579–2605.
  17. ^ Krizhevsky, Alex; Sutskever, Ilya; Hinton, Geoffrey E. (2012). "ImageNet classification with deep convolutional neural networks". NIPS'12: Proceedings of the 25th International Conference on Neural Information Processing Systems. tr. 1097–1105.
  18. ^ "U of T neural networks start-up acquired by Google". University of Toronto. ngày 12 tháng 3 năm 2013.
  19. ^ Geib, Claudia (ngày 11 tháng 2 năm 2017). "We've finally created an AI network that's been decades in the making". Futurism.
  20. ^ Hinton, Geoffrey (2022). "The Forward-Forward Algorithm: Some Preliminary Investigations". arXiv:2212.13345.
  21. ^ Metz, Cade (ngày 1 tháng 5 năm 2023). "'The Godfather of A.I.' Leaves Google and Warns of Danger Ahead". The New York Times.
  22. ^ Bản mẫu:Chú thích phương tiện
  23. ^ Metz, Cade (ngày 1 tháng 5 năm 2023). "'The Godfather of A.I.' Leaves Google and Warns of Danger Ahead". The New York Times.
  24. ^ "Call for an International Ban on the Weaponization of Artificial Intelligence". University of Ottawa: Centre for Law, Technology and Society.
  25. ^ Bản mẫu:Chú thích phương tiện
  26. ^ Bản mẫu:Chú thích phương tiện
  27. ^ Milmo, Dan (ngày 27 tháng 12 năm 2024). "'Godfather of AI' shortens odds of the technology wiping out humanity over next 30 years". The Guardian.
  28. ^ Hinton, Geoffrey (ngày 27 tháng 5 năm 2025). "Humans 'no longer needed' – Godfather of AI" (Phỏng vấn). RNZ.
  29. ^ "'Godfathers of AI' Yoshua Bengio and Yann LeCun weigh in on potential of human-level AI, emerging risks and future frontiers at NUS lectures". ‘Godfathers of AI’ Yoshua Bengio and Yann LeCun weigh in on potential of human-level AI, emerging risks and future frontiers at NUS lectures (bằng tiếng Anh). Truy cập ngày 16 tháng 4 năm 2026.
  30. ^ Nolan, Beatrice. "The 'stakes are too high' to ignore extinction risks of AI, AI godfather warns". Business Insider (bằng tiếng Anh). Truy cập ngày 16 tháng 4 năm 2026.
  31. ^ Jain, Rounak. "'Let's Open Source Nuclear Weapons Too': Godfather Of AI Geoffrey Hinton Mocks Fellow AI Godfather's Attempts To Trivialize Risks Of AI - Alphabet (NASDAQ:GOOG), Alphabet (NASDAQ:GOOGL), Meta Platforms (NASDAQ:META)". Benzinga (bằng tiếng Anh). Bản gốc lưu trữ ngày 7 tháng 2 năm 2025. Truy cập ngày 16 tháng 4 năm 2026.
  32. ^ Wiggers, Kyle (ngày 17 tháng 12 năm 2018). "Geoffrey Hinton and Demis Hassabis: AGI is nowhere close to being a reality". VentureBeat.
  33. ^ "AI 'godfather' says universal basic income will be needed". BBC News. ngày 18 tháng 5 năm 2024.
  34. ^ Hern, Alex (ngày 4 tháng 5 năm 2023). "Bernie Sanders, Elon Musk and White House Seeking My Help, Says 'Godfather of AI'". The Guardian.
  35. ^ Pillay, Tharin; Booth, Harry (ngày 7 tháng 8 năm 2024). "Exclusive: Renowned Experts Pen Support for California's Landmark AI Safety Bill". TIME.