Elon Musk nói chúng ta cần phải lên những điều luật và giảm sát lực lượng để dám sát dự án AI đang được nghiên cứu và phát triển.

Cùng sự phát triển nhanh chóng của công nghệ, chí tuệ nhân tạo sẽ mất kiểm soát của con người trong tương lai nếu con người không có những điều luật và rất nhiều rủi do mà AI gây ra. Mới đây tại sự kiện South by Southwest (SXSW), ông tiếp tục nhấn mạnh quan điểm của mình và chia sẻ AI thực sự khiến ông phải run sợ.

Ông đã nghiêm cứu và khẳn định quy trình giám sát là thật cần thiết. Tuy nhiên hiện nay AI lại được xem là trường hợp ngoại lệ: “AI là một vấn đề có thể gây nguy hiểm nghiêm trọng đến nhân loại, vì thế chúng ta cần thành lập các cơ quan, lực lượng hiểu rõ công nghệ này để có thể giám sát và xác nhận các quy trình nghiên cứu và phát triển AI đang diễn ra một cách an toàn. Và điều này là cực kỳ quan trọng”.

Một số chuyên gia AI cho rằng họ đã am hiểu quá tường tận về công nghệ này và họ không chấp nhận những ý tưởng liên quan đến việc máy móc có thể trở nên thông minh hơn con người. Vì thế, họ gạt bỏ hoàn toàn quan điểm đó, một sai lầm thực sự lớn. Chúng ta đã đến rất gần với thời kỷ đỉnh cao nhất của công nghệ AI, và điều đó thực sự khiến tôi phải run sợ”.

Để chứng minh ông đã đem hai dự án AlphaGo và AlphaGo Zero của Google ra, AI có rất nhiều khẳ năng tiềm ẩn của mình mà chúng ta không thể tưởng tượng được.

AlphaGo Zero thậm chí còn có thành tích “khủng” nữa khi đã đánh bại chính người tiền nhiệm AlphaGo với tỉ số 100 – 0. Hệ thống này có thể tự chơi cờ với chính mình để trở nên tiến bộ hơn. Hiện tại, về cơ bản nó đã có thể chơi bất cứ dạng thức thi đấu nào sau khi nhận được dữ liệu về luật lệ thi đấu. Và Elon Musk nhận định: “Không ai có thể lường trước được tốc độ phát triển mạnh mẽ đến như vậy của AI”.

Kể đến công nghệ lái xe tự động,  Elon Musk đã dự đoán chỉ trong cuối năm sau, công nghệ này sẽ phổ biến và tích hợp hóa toàn bộ các chế độ lái xe hiện tại của oto với mức độ đảm bảo an toàn nhất, cải tiến lên tới 100-200%.

Để chứng minh sự nguy hiểm của AI,  Elon Musk còn so sánh với công nghệ nguy hiểm nhất hiện nay như hạt nhân, vũ khí có thể hủy hoại trái đất, nếu AI còn nguy hiểm hơn nữa thì chúng ta không thể kiểm soát những gì sẽ sẩy ra trong tương lai loài người.

Nếu Trái Đất phải trải qua một thời kỳ đen tối, đặc biệt là nếu Thế chiến thứ III diễn ra, tôi muốn đảm bảo an toàn cho một phần của nhân loại. Họ chính là những “hạt giống” quan trọng để gây dựng lại nền văn minh cũng như hạn chế thiệt hại do thời kỳ đen tối kia để lại. Tôi nghĩ xây dựng căn cứ trên Sao Hỏa sẽ khả quan hơn so với Mặt Trăng. Nhưng dù là ở đâu thì điều quan trọng nhất là kế hoạch này cần được hoàn thành nhanh nhất có thể”.