Khuyến nghị của SentinelOne: khi tích hợp ChatGPT & AI sáng tạo phương thức an ninh mạng tối ứu

ChatGPT đã tạo ra một sự chú ý lớn kể từ khi ra mắt vào tháng 11 năm 2022. Trong năm tháng qua, trí tuệ nhân tạo sinh trắc học (AI) sinh ra tự động đã trở thành đề tài của nhiều cuộc thảo luận phức tạp và liên tục về tiềm năng của nó trong việc ảnh hưởng đến cộng đồng an ninh thông tin và toàn bộ cảnh quan an ninh mạng. Ứng dụng của trí tuệ nhân tạo liên quan đến công nghệ bảo mật của SentinelOne có nhiều nội dung công bố tại Exclusive Network Vietnam.

Đối với các nhà phụ trách bảo mật, việc sử dụng trí tuệ nhân tạo có thể là một công cụ mạnh mẽ, giúp đảm bảo rằng kiến trúc kinh doanh của họ có thể chống lại tất cả các thách thức phát triển trong cảnh quan đe dọa. Việc giữ vững ưu thế trước các mối đe dọa đến cần những nhà lãnh đạo nhìn xa trước, bỏ qua các giải pháp phản ứng đơn lớp không thể tiếp tục đáp ứng được các kỹ thuật tinh vi và ngày càng phức tạp của các kẻ tấn công.

Bài đăng trên blog này xem xét việc sử dụng ChatGPT trong bối cảnh bảo mật mạng và thảo luận về những ảnh hưởng của nó đến bảo mật thông tin. Nó mô tả cách các công cụ trí tuệ nhân tạo sinh ra tự động như ChatGPT có thể được triển khai một cách an toàn trong các giới hạn của các phương pháp tốt nhất của bảo mật mạng và được sử dụng một cách hiệu quả để tăng cường chiến lược bảo mật.


Sự trỗi dậy của Trò chuyệnGPT | Từ tìm kiếm dựa trên chỉ mục đến sự quen thuộc của đối thoại

Trong vòng hai thập kỷ, Google Search có thể nói đã tạo ra cách mà người dùng internet hiện đại khám phá, tiêu thụ và điều hướng thông tin trên web.

Công cụ tìm kiếm của Google cung cấp thông tin giống như một chỉ mục của một cuốn sách thay vì một bảng mục lục. Tìm kiếm này chủ yếu là thủ công và tùy thuộc vào người dùng để lọc qua tất cả các kết quả tìm thấy, tìm ra câu trả lời chính xác, kết nối giữa thông tin được tìm thấy và cuối cùng là xử lý cách họ nên nghĩ về nó.

Một cách thay thế, sự phổ biến của ChatGPT được ghi nhận nhờ khả năng "nói chuyện" bằng một ngôn ngữ tự nhiên. Khi được hỏi một câu hỏi, ChatGPT rút ra từ một lượng lớn dữ liệu văn bản, bao gồm sách, bài viết và trang web để tạo ra câu trả lời. Được đào tạo để có tính đối thoại, nó sau đó sử dụng các thuật toán học máy để trả lời trong ngữ cảnh tương tự như phần còn lại của cuộc đối thoại. Kết quả là, các phản hồi giống như con người, mang lại cho người dùng cảm giác quen thuộc của cuộc trò chuyện hai chiều thay vì một tìm kiếm dựa trên chỉ mục một chiều mà người dùng internet đã áp dụng trong thời đại của Google.

ChatGPT có thể được tích hợp an toàn trong các chiến lược và quy trình an ninh mạng không?

Khi thế hệ người dùng internet mới nhất xuất hiện, nghiên cứu cho thấy họ ưa thích các hình thức giao tiếp đa phương tiện và tìm kiếm thông tin trên các ứng dụng mạng xã hội như TikTok và Instagram. Trên những ứng dụng này, thông tin dường như đến từ các nguồn "trực tiếp", xây dựng một sự trao đổi thông tin dựa trên cuộc trò chuyện và đối thoại bình thường.

Mặc dù công nghệ đằng sau ChatGPT không mới, nhưng nó dường như đồng hành với sở thích mới này cho những cuộc trò chuyện trung tâm cộng đồng giữa một 'nguồn' và người tiêu dùng của nó. Có lẽ ChatGPT đánh dấu một bước ngoặt trong cách người dùng nghĩ về và tiếp cận tổ chức dữ liệu. Trong hai tháng đầu ra mắt, bot trí tuệ nhân tạo này đã có hơn 100 triệu người dùng và được truy cập bởi hơn 13 triệu người dùng hàng ngày tính đến năm 2023.

Bảo mật ChatGPT từ quan điểm của con người

ChatGPT có thể được sử dụng một cách an toàn khi lãnh đạo tổ chức và nhóm an ninh làm việc cùng nhau để quản lý các rủi ro. Từ quan điểm của con người, điều quan trọng là hiểu được cách mà trò trò chuyện có trí tuệ nhân tạo (AI) phát sinh có thể bị lạm dụng và cách phòng thủ chống lại chúng.

Giảm các rào cản cho kẻ thù xâm nhập
Các nhà nghiên cứu đã phát hiện ra rằng ChatGPT có thể được khai thác bởi các kẻ đe dọa để tạo lệnh malware hoặc thậm chí tạo ra phần mềm độc hại trực tiếp. Trong khi điều này hoàn toàn đối lập với chính sách nội dung của OpenAI, có dấu hiệu cho thấy các kẻ tấn công đang tích cực làm việc để vượt qua các hạn chế của công ty chatbot bằng cách chia sẻ các kỹ thuật của họ trong các diễn đàn tối mật. Nếu những hạn chế này bị phá vỡ, chatbot có thể được sử dụng bởi các tội phạm mạng cấp thấp và các script kiddie để tạo ra hoặc cải thiện mã độc đang tồn tại.

AI Phishing Emails

Với tính chất dựa trên đối thoại của chatbot, các chuyên gia bảo mật giả định rằng các kẻ đe dọa có thể sử dụng ChatGPT để tạo ra các email lừa đảo tốt. Trước đây, một số dấu hiệu chung của email lừa đảo bao gồm ngữ pháp kém, lỗi chính tả và ngôn ngữ khẩn thiết hoặc kỳ lạ. Nếu các kẻ đe dọa bắt đầu tận dụng ChatGPT để tạo nội dung kỹ thuật xã hội của họ, họ có thể tăng sản xuất email lừa đảo và nghe có vẻ thuyết phục hơn.

Hiện tại, ChatGPT được nhắm mục tiêu giống như nhiều nền tảng khác trên thị trường. Các tổ chức có thể đối phó với các rủi ro tiềm ẩn mà các công cụ AI dựa trên một cách tiếp cận dựa trên con người. Điều này có nghĩa là tham gia nhân viên vào các chương trình đào tạo và nhận thức về cách các bot như ChatGPT hoạt động, cách phát hiện nội dung được tạo bởi AI và củng cố các biện pháp an ninh thông tin dựa trên danh tính.

Đảm bảo an ninh cho ChatGPT từ quy trình

Ngày càng có nhiều nhà lãnh đạo doanh nghiệp nhận ra rằng nhân viên của họ cần có hướng dẫn về cách sử dụng ChatGPT một cách an toàn và làm thế nào để giảm thiểu rủi ro khi sử dụng công cụ này. Để bảo vệ quyền riêng tư dữ liệu, nhiều tổ chức đang đầu tư thời gian để xây dựng các chính sách và quy trình cụ thể cho ChatGPT. Điều này có thể bao gồm các khuyến nghị và yêu cầu liên quan đến kiểm tra mã, thảo luận ý tưởng, soạn nội dung, chỉnh sửa và nghiên cứu.

Những chính sách và quy trình này cũng có thể bao gồm cách mà các công ty sẽ thực hiện kiểm soát chất lượng nội dung trong đó ChatGPT đã tham gia vào quá trình sản xuất. Ngoài ra, chúng có thể bao gồm bất kỳ rủi ro hợp đồng nào liên quan đến việc sử dụng các công cụ AI sinh trắc học thứ ba để sản xuất hoặc xử lý dữ liệu và sản phẩm nhạy cảm, quản lý sự thiên vị bẩm sinh và các rủi ro liên quan đến quyền riêng tư, bảo vệ người tiêu dùng, sở hữu trí tuệ và các nhà cung cấp.

Những rủi ro liên quan đến quyền riêng tư với ChatGPT

Do khả năng của các hệ thống trí tuệ nhân tạo (AI) để tổng hợp thông tin, có khả năng đáng kể rằng thông tin cá nhân có thể được sử dụng bởi bot để cung cấp đầu ra cho người dùng cuối. Người dùng cuối không bị hạn chế khỏi việc nhập thông tin PII vào bot AI, thông tin này sau đó được sử dụng để tổng hợp thông tin cho mục đích tương lai.

Rủi ro bảo mật liên quan đến ChatGPT

Người dùng cuối có thể tương tác với hệ thống AI bằng cách nhập thông tin nhạy cảm của tổ chức và cố gắng thu thập một thông tin đầu ra tốt hơn. Ví dụ, người dùng cuối có thể nhập chính sách bảo mật của tổ chức và yêu cầu một trích dẫn đơn giản hơn từ hệ thống AI. Đầu ra có thể tuyệt vời hơn với cấu trúc tốt hơn trước đó, nhưng hệ thống AI có thể thu thập thông tin này cho các câu trả lời trong tương lai.

Rủi ro về tính toàn vẹn dữ liệu liên quan đến ChatGPT
Có thể xảy ra trường hợp nội dung được tạo ra bởi hệ thống trí tuệ nhân tạo có thể đưa ra đầu ra khác với quan điểm hoặc ngữ cảnh ban đầu và có thể dẫn đến kết quả không chính xác, không đầy đủ và thiên vị. Hơn nữa, dựa trên kết quả như sự thật có thể khiến người dùng cuối sử dụng thông tin sai lệch.

Rủi ro về pháp lý và quy định liên quan đến ChatGPT
Dữ liệu được cung cấp cho trí tuệ nhân tạo có thể chứa tài liệu bản quyền, bí mật thương mại hoặc thông tin bảo mật, và các phản hồi được tạo ra bởi trí tuệ nhân tạo không có sự đồng ý của chủ sở hữu dữ liệu. Người dùng cuối cần xem xét liệu họ có quyền sử dụng hoặc công bố tài liệu như vậy hay không. Ngoài ra, cũng có các quy định và yêu cầu về pháp lý và quy định địa lý có thể cần phải tuân thủ khi sử dụng dữ liệu từ bot trí tuệ nhân tạo.

Rủi ro về danh tiếng liên quan đến ChatGPT
Trong trường hợp nhân viên sử dụng ChatGPT để sản xuất nội dung, quan trọng là phải nhận thức được rằng đã có các công cụ có sẵn để nhận ra liệu nội dung được tạo ra bằng trí tuệ nhân tạo hay không. Các công cụ nhận dạng nội dung được tạo ra bởi ChatGPT vẫn chưa hoàn hảo, nhưng các tiện ích như OpenAI AI Text Classifier đang được cải tiến nhanh chóng và có thể sẽ được áp dụng rộng rãi hơn trong tương lai.

Bảo vệ ChatGPT từ quan điểm công nghệ
Điều làm cho ChatGPT hấp dẫn là tốc độ và sự tinh vi của đầu ra khi đưa ra câu hỏi và lệnh. Điều này có thể dẫn đến niềm tin ngầm định vào công nghệ đằng sau đó. Khi các tổ chức chuyển sang sử dụng công nghệ này trong tổ chức của họ, họ cần hiểu rõ các phụ thuộc trong việc cung cấp đầu ra theo mong đợi của họ, bao gồm các lĩnh vực sau.

Đồng nhất hóa đầu ra dữ liệu
Có khả năng rằng tất cả các đầu ra được tạo ra bởi ChatGPT có thể tương tự nhau về cấu trúc và phong cách viết và thiếu sự cảm xúc của con người trong việc tạo nội dung. Sản xuất và truyền bá đầu ra của ChatGPT có thể dẫn đến góc nhìn hạn chế, cản trở người dùng khám phá các góc nhìn và nghiên cứu khác, và làm giảm sự sáng tạo trong việc viết và giải quyết vấn đề đổi mới hơn.

Chi phí tiểm ẩn

Mặc dù chi phí liên quan đến các công cụ như ChatGPT có vẻ hấp dẫn ngay bây giờ khi các nhà phát triển tìm kiếm sự chấp nhận, nhưng điều này có thể không còn đúng trong tương lai. Việc xây dựng phụ thuộc vào các giải pháp bên thứ ba mới nên tính đến khả năng chi phí có thể tăng đột ngột trong tương lai. Gần đây, CEO của OpenAI đã thông báo rằng phiên bản chuyên nghiệp của công cụ sẽ cung cấp giới hạn cao hơn và hiệu suất nhanh hơn cho những người đăng ký.

Từ quan điểm công nghệ, điều quan trọng đối với các tổ chức là phải rõ ràng về những gì các công cụ trí tuệ nhân tạo như ChatGPT có thể và không thể làm được. ChatGPT có khả năng phân tích lượng lớn dữ liệu và tìm kiếm mô hình để tạo ra các câu trả lời, nhưng nó không thể suy luận, suy nghĩ phản biện hoặc hiểu được điều gì là tốt nhất cho doanh nghiệp. Tuy nhiên, nó có thể là một sự bổ sung rất mạnh mẽ cho trí thông minh con người. Yếu tố con người trong việc sử dụng ChatGPT an toàn vẫn là chìa khóa đối với các tổ chức đang bắt đầu tận dụng trí tuệ nhân tạo nhiều hơn trong công việc hàng ngày của họ.

Kết luận

Các lợi ích của ChatGPT là rất nhiều, và không có nghi ngờ gì về việc các công cụ trí tuệ nhân tạo tạo ra như vậy đã được chứng minh là cải thiện các tác vụ con người và làm cho quy trình làm việc và sản xuất nội dung hiệu quả hơn. Khi các công ty cố gắng tối đa hóa lợi ích của ChatGPT và sử dụng nó để tạo lợi thế cạnh tranh, quan trọng là lưu ý rằng việc sử dụng trí tuệ nhân tạo tạo ra vẫn còn ở giai đoạn mới bắt đầu để được áp dụng trên quy mô lớn.

Khi tích hợp ChatGPT vào chiến lược và quy trình an ninh mạng của doanh nghiệp, các nhà lãnh đạo an ninh cần xem xét các rủi ro khác nhau liên quan đến con người, quy trình và công nghệ của họ. Bằng cách đưa các biện pháp bảo vệ phù hợp vào chỗ, các công cụ trí tuệ nhân tạo sinh sản có thể được sử dụng để hỗ trợ cơ sở hạ tầng an ninh hiện có.

SentinelOne tiếp tục bảo vệ và hỗ trợ các doanh nghiệp trên toàn cầu khi họ khám phá các lợi ích của các công nghệ mới và sáng tạo. Tìm hiểu thêm về cách Singularity ™ giúp tổ chức ngăn chặn, phát hiện và khắc phục các mối đe dọa trong thời gian thực bằng cách liên hệ với chúng tôi hoặc yêu cầu một phiên trình diễn.

Nguồn: SentinelOne






Nhận xét