Chào mừng bạn đến với bài đăng trên blog của tôi, nơi tôi sẽ chia sẻ hành trình và hiểu biết của mình về cách làm việc với mô hình LLama2. LLama2 là một mô hình AI tuyệt vời do Meta phát triển và thật thú vị khi khám phá các khả năng gợi nhớ đến GPT-3 của nó. Trong bài đăng này, chúng ta sẽ đi sâu vào các khía cạnh khác nhau của LLama2, bao gồm thiết lập, điều kiện tiên quyết, ứng dụng, tầm quan trọng và thậm chí là xem qua cách chúng ta có thể tự đào tạo nó. Tôi rất vui mừng được giới thiệu với bạn trải nghiệm học tập của tôi với LLama2, tất cả những gì tôi có được khi thực hiện dự án HackBot của mình .
LLama2 là một công nghệ tiên tiến do Meta tạo ra, trái tim được phân loại là mô hình AI. Hãy nghĩ về nó như một trợ lý rất thông minh có thể hiểu được ngôn ngữ của con người và đưa ra những phản hồi có ý nghĩa, gần giống như con người. Mục tiêu của LLama2 là cải thiện sự tương tác dễ dàng và tự nhiên giữa con người và máy tính.
Cân nhắc cách bạn thể hiện bản thân bằng lời nói khi nói chuyện với bạn bè hoặc soạn email; những người bạn đang giao tiếp hiểu và phản ứng. Hoạt động tương tự, LLama2 có thể xử lý khối lượng dữ liệu văn bản khổng lồ và học hỏi từ nó. Điều này giúp LLama2 có thể hỗ trợ nhiều tác vụ khác nhau, chẳng hạn như cung cấp thông tin và trả lời các truy vấn, cũng như viết nội dung và hỗ trợ giải quyết vấn đề.
Tính năng độc đáo của LLama2 là nó được tạo ra có tính đến khả năng truy cập. Nó giống như có một công cụ linh hoạt có thể được sử dụng bởi bất kỳ ai với các trình độ kỹ thuật khác nhau. LLama2 cung cấp một cách tiếp cận đơn giản để tiếp cận tiềm năng của trí tuệ nhân tạo, cho dù bạn là nhà phát triển, nhà văn, sinh viên hay ai đó chỉ quan tâm đến nó.
Về bản chất, LLama2 tạo ra một lĩnh vực khả năng mà máy tính có thể tương tác dễ dàng và hiệu quả hơn với ngôn ngữ của con người. Tương tác của bạn với công nghệ trở nên năng suất và hiệu quả hơn rất nhiều vì nó giống như có một người bạn ảo thường xuyên ở đó để giúp bạn thực hiện các hoạt động liên quan đến văn bản và ngôn ngữ.
Hãy bắt đầu với những bước đầu tiên để giúp bạn bắt đầu. Sau đây là các nhiệm vụ bạn phải xem xét để mã hoạt động.
Chọn ngôn ngữ của bạn:
Python là lựa chọn đầu tiên của tôi cho một người bạn đồng hành đáng tin cậy. Đó là một lựa chọn tuyệt vời để tương tác với LLama2 do khả năng thích ứng và sử dụng rộng rãi trong cộng đồng lập trình. Bạn đang ở trạng thái tốt nếu bạn đã quen thuộc với Python.
Thiết lập các yếu tố cần thiết:
Tài khoản HuggingFace và Truy cập Kho lưu trữ Lama:
Bạn sẽ cần tạo một tài khoản trên HuggingFace, một nền tảng chứa một số mô hình và công cụ AI, để bắt đầu. Hãy chắc chắn rằng tài khoản của bạn đã được chuẩn bị. Ngoài ra, bạn có thể tìm các thành phần cho LLama2 bằng cách truy cập vào kho lưu trữ Lama của Meta.
Cài đặt C/C++ và Cmake: LLama2 có một thành phần gọi là LLama-cpp, yêu cầu cài đặt C/C++ và Cmake trên hệ thống của bạn. Những công cụ này rất cần thiết để xây dựng LLama-cpp, vì vậy hãy đảm bảo rằng chúng đã được thiết lập và sẵn sàng hoạt động.
Đăng nhập và sẵn sàng:
Đăng nhập Huggingface-cli: Với chi tiết tài khoản HuggingFace của bạn trong tay, hãy sử dụng giao diện dòng lệnh HuggingFace để đăng nhập. Bước này kết nối bạn với nền tảng HuggingFace bằng cách sử dụng mã thông báo tài khoản của bạn, cấp cho bạn quyền truy cập vào các tài nguyên AI mà bạn cần. Bạn có thể tìm thấy mã thông báo bằng cách sử dụng URL này nếu bạn không tìm thấy mã thông báo nào được tạo.
Các lệnh là:
$ huggingface-cli login Token: Your_Token
Cài đặt LLama-cpp: Llama-cpp là trình kết nối truy cập cấp thấp để llama và Python hoạt động cùng nhau và cung cấp cho chúng tôi sự linh hoạt hơn.
Việc cài đặt có thể được thực hiện theo 2 cách:
Cài đặt Python trực tiếp:
pip install llama-cpp-python
Tùy chọn biên dịch: Đối với điều này, bạn cần kiểm tra readme để biết mô-đun phức tạp để giải thích: README.md
Cài đặt Langchain : Langchain là một khung mở nhằm mục đích dễ dàng phát triển ứng dụng mô hình LLM. Chúng tôi sẽ sử dụng các mô-đun LLamaCpp , PrompTemplate , CallbackManager và StreamingStdOutCallbackHandler cụ thể cho tác vụ này.
Lệnh để cài đặt là:
pip install langchain pip install langchainplus-sdk
Nó được sử dụng như thế nào trong mã Python?
Bây giờ câu hỏi chính là nó được sử dụng như thế nào?
Để trả lời rằng phần tích hợp có thể được chia thành các bước.
Tải xuống mô hình và định nghĩa:
Đối với điều này, tôi sẽ đề cập đến mã của HackBot.
Sau khi gọi tất cả các mô-đun thiết yếu, chúng tôi phải quyết định tên mô hình và kho lưu trữ mà chúng tôi muốn tải xuống từ đó.
model_name_or_path = "localmodels/Llama-2-7B-Chat-ggml" model_basename = "llama-2-7b-chat.ggmlv3.q4_0.bin" model_path = hf_hub_download(repo_id=model_name_or_path, filename=model_basename)
Trong đoạn mã trên, mô-đun llama được sử dụng là mô hình 7b hoặc 7 tỷ tham số và phiên bản Localmodels llama2.
Sau đó, model_path được gọi bằng đường dẫn tải xuống của mô hình bởi trình tải xuống hugface tải xuống llama-2-7b-chat.ggmlv3.q4_0.bin từ repo vào hệ thống.
Đường dẫn rất quan trọng vì LlamaCpp sẽ đề cập đến vị trí mô hình để sử dụng nó.
Xác định một cá nhân và một mẫu lời nhắc:
from langchain import PromptTemplate from langchain.callbacks.manager import CallbackManager from langchain.callbacks.streaming_stdout import StreamingStdOutCallbackHandler template = """ persona: {persona} You are a helpful, respectful, and honest cybersecurity analyst. Being a security analyst, you must scrutinize the details provided to ensure they are usable for penetration testing. Please ensure that your responses are socially unbiased and positive. If a question does not make any sense or is not factually coherent. If you don't know the answer to a question, please don't share false information. Keep your answers in English and do not divert from the question. If the answer to the asked question or query is complete, end your answer. Keep the answer accurate and do not skip details related to the query. Give your output in markdown format. """ prompt = PromptTemplate(template=template, input_variables=["persona"]) callback_manager = CallbackManager([StreamingStdOutCallbackHandler()])
Chúng tôi phải cung cấp một mẫu cơ sở để một con lạc đà không bướu sử dụng làm nhân cách của nó, chẳng hạn như xác định nó là trợ lý cá nhân hoặc nhà phân tích an ninh mạng.
Mẫu xác định mô hình sẽ hoạt động như thế nào và có thể có nhiều ảnh hưởng đến đầu ra cuối cùng sẽ như thế nào, vì vậy nó phải được viết hết sức cẩn thận.
Sau đó, lời nhắc được tạo bằng cách sử dụng mô-đun persona mẫu và PromptTemplate bằng cách sử dụng persona.
Trình quản lý gọi lại được sử dụng để hiển thị đầu ra của AI và cũng quản lý các liên kết Đầu vào và đầu ra.
Xác định mô-đun LlamaCpp:
llm = LlamaCpp( model_path=model_path, input={"temperature": 0.75, "max_length": 3500, "top_p": 1}, callback_manager=callback_manager, max_tokens=3500, n_batch=3500, n_gpu_layers=60, verbose=False, n_ctx=3500, streaming=False, )
Bây giờ bằng cách triển khai điều này, chúng tôi đã tạo một xương sống chatbot hoặc một trình kết nối và sử dụng điều này, chúng tôi có thể bắt đầu một cuộc trò chuyện tích cực với mô hình AI.
HackBot là nỗ lực của tôi trong việc tạo bot trò chuyện dành riêng cho an ninh mạng và công cụ này có các tính năng như quét dữ liệu, công cụ phân tích dữ liệu nhật ký và khả năng phân tích mã.
Vòng tương tác trò chuyện:
while True: try: prompt_in = Prompt.ask('> ') # ... except KeyboardInterrupt: pass
Vòng lặp này tạo ra một môi trường tương tác nơi người dùng có thể nhập các lệnh hoặc lời nhắc. Mã đợi người dùng nhập bằng cách sử dụng Prompt.ask('> ')
và xử lý các trường hợp ngoại lệ như KeyboardInterrupt (Ctrl+C) mà không làm hỏng chương trình. Vòng lặp này đảm bảo rằng chatbot vẫn phản hồi nhanh và có thể liên tục tương tác với người dùng.
Xử lý các lệnh của người dùng:
if prompt_in == 'quit_bot': quit() elif prompt_in == 'clear_screen': clearscr() pass elif prompt_in == 'bot_banner': # ... elif prompt_in == 'save_chat': # ... elif prompt_in == 'static_code_analysis': # ... elif prompt_in == 'vuln_analysis': # ... elif prompt_in == 'contact_dev': # ... elif prompt_in == 'help_menu': # ... else: # ...
Trong vòng lặp, đầu vào của người dùng được kiểm tra dựa trên các từ khóa lệnh khác nhau. Tùy thuộc vào đầu vào, mã thực thi các hành động tương ứng. Ví dụ: nếu người dùng nhập 'quit_bot', quit()
được gọi để thoát khỏi chương trình. Nếu người dùng nhập 'clear_screen', chức năng clearscr()
sẽ xóa màn hình bảng điều khiển. Logic tương tự được áp dụng cho các lệnh khác.
Tạo phản hồi AI:
else: prompt = prompt_in print(Print_AI_out(prompt)) pass
Nếu đầu vào của người dùng không khớp với bất kỳ lệnh nào được xác định trước, thì nó được coi là lời nhắc cho AI. Đầu vào được gán cho biến prompt
và chức năng Print_AI_out(prompt)
được gọi để tạo phản hồi AI dựa trên dấu nhắc được cung cấp. Phản hồi do AI tạo ra sau đó được in ra bảng điều khiển.
Lưu lịch sử trò chuyện:
def save_chat(chat_history: list[Any, Any]) -> None: f = open('chat_history.json', 'w+') f.write(json.dumps(chat_history)) f.close
Hàm save_chat
chịu trách nhiệm lưu lịch sử hội thoại, bao gồm cả lời nhắc của người dùng và phản hồi do AI tạo, vào một tệp JSON có tên 'chat_history.json'. Hàm này tuần tự hóa dữ liệu trong danh sách chat_history
thành định dạng JSON và ghi dữ liệu đó vào tệp.
Phân tích lỗ hổng và phân tích mã tĩnh:
elif prompt_in == 'static_code_analysis': print(Markdown('----------')) language_used = Prompt.ask('Language Used> ') file_path = Prompt.ask('File Path> ') print(Markdown('----------')) print(static_analysis(language_used, file_path)) pass elif prompt_in == 'vuln_analysis': print(Markdown('----------')) scan_type = Prompt.ask('Scan Type > ') file_path = Prompt.ask('File Path > ') print(Markdown('----------')) print(vuln_analysis(scan_type, file_path)) pass
Các phần này xử lý các lệnh của người dùng để thực hiện phân tích mã tĩnh và phân tích lỗ hổng. Người dùng được nhắc cung cấp thông tin như ngôn ngữ được sử dụng hoặc kiểu quét và đường dẫn tệp. Hàm phân tích tương ứng ( static_analysis
hoặc vuln_analysis
) sau đó được gọi với dữ liệu được cung cấp và AI tạo phản hồi bao gồm kết quả phân tích.
Phân tích lỗ hổng: Trong phần vuln_analysis
, đoạn mã sau sẽ nhắc người dùng nhập:
scan_type = Prompt.ask('Scan Type > ') file_path = Prompt.ask('File Path > ')
Ở đây, chức năng Prompt.ask
được sử dụng để yêu cầu người dùng cung cấp thông tin một cách tương tác. Người dùng được nhắc nhập loại quét và đường dẫn tệp cho dữ liệu cần phân tích. Những đầu vào này rất cần thiết cho phân tích lỗ hổng. Sau khi người dùng cung cấp các thông tin đầu vào này, quá trình phân tích được bắt đầu bằng cách sử dụng lời nhắc kết hợp thông tin đầu vào của người dùng:
prompt = f""" **Objective:** You are a Universal Vulnerability Analyzer powered by the Llama2 model. Your main objective is to analyze any provided scan data or log data to identify potential vulnerabilities in the target system or network. You can use the scan type or the scanner type to prepare a better report. **Instructions:** # ... (rest of the instructions) **Input Data:** You will receive the scan file data or log file data in the required format as input. Ensure the data is correctly parsed and interpreted for analysis. **Output Format:** The vulnerability analysis report should be organized as mentioned in the "Comprehensive Report" section. Please perform the vulnerability analysis efficiently, considering the security implications and accuracy, and generate a detailed report that helps users understand the potential risks and take appropriate actions. --- Provide the scan type: {scan_type} Provide the scan data or log data that needs to be analyzed: {file_data} """
Trong lời nhắc này, trình giữ chỗ {scan_type}
và {file_data}
được thay thế bằng giá trị thực do người dùng nhập. Lời nhắc động này sau đó được chuyển đến mô hình LLama2 để tạo phản hồi AI cung cấp kết quả phân tích dựa trên dữ liệu tệp và loại quét được cung cấp.
Phân tích mã tĩnh: Tương tự, trong phần static_code_analysis
, mã này sẽ nhắc người dùng nhập:
language_used = Prompt.ask('Language Used> ') file_path = Prompt.ask('File Path> ')
Người dùng được nhắc cung cấp ngôn ngữ lập trình được sử dụng và đường dẫn tệp cho mã cần được phân tích. Những đầu vào này rất quan trọng để thực hiện phân tích mã tĩnh. Giống như trong phần phân tích lỗ hổng, một lời nhắc kết hợp đầu vào của người dùng được tạo cho mô hình LLama2:
prompt = f""" **Objective:** Analyze the given programming file details to identify and report bugs, vulnerabilities, and syntax errors. Additionally, search for potential exposure of sensitive information such as API keys, passwords, and usernames. **File Details:** - Programming Language: {language_used} - File Name: {file_path} - File Data: {file_data} """
Tại đây, các trình giữ chỗ {language_used}
và {file_path}
được thay thế bằng các giá trị thực do người dùng cung cấp. Dấu nhắc động này sau đó được sử dụng để tạo phản hồi AI trình bày kết quả phân tích dựa trên ngôn ngữ lập trình và dữ liệu tệp do người dùng nhập.
Trong cả hai trường hợp, việc sử dụng lời nhắc động đảm bảo rằng các phản hồi do LLama2 tạo ra có liên quan theo ngữ cảnh và phù hợp với phân tích cụ thể mà người dùng yêu cầu.
Thông tin liên hệ và Menu trợ giúp:
elif prompt_in == 'contact_dev': console.print(Panel( Align.center( Group(Align.center(Markdown(contact_dev))), vertical="middle", ), title= "Dev Contact", border_style="red" ), style="bold green" ) pass elif prompt_in == 'help_menu': console.print(Panel( Align.center( Group(Align.center(Markdown(help_menu))), vertical="middle", ), title= "Help Menu", border_style="red" ), style="bold green" ) pass
Các phần này xử lý các lệnh để hiển thị thông tin liên hệ cho nhà phát triển ( contact_dev
) và menu trợ giúp liệt kê các lệnh có sẵn ( help_menu
). Khi người dùng nhập các lệnh này, thông tin tương ứng sẽ được hiển thị trong bảng điều khiển được định dạng độc đáo bằng thư viện Phong phú.
Thực hiện chức năng chính:
if __name__ == "__main__": main()
Chức năng main
, bao gồm toàn bộ logic xử lý và tương tác trò chuyện, chỉ được thực thi nếu tập lệnh đang được chạy trực tiếp (không được nhập dưới dạng mô-đun). Dòng này đảm bảo rằng chức năng cốt lõi của chatbot được thực thi khi tập lệnh được chạy.
Bạn có thể xem và dùng thử toàn bộ chatbot từ repo Github của tôi: Link
Đào tạo một mô hình AI là một quá trình chuyển đổi đòi hỏi phải lập kế hoạch và tính chính xác. Dưới đây là hướng dẫn từng bước để hoàn tất quy trình.
điều kiện tiên quyết :
Tensor Power: Một hệ thống mạnh mẽ với khả năng xử lý tensor khá lớn sẽ tạo tiền đề cho sự thành công. Đảm bảo rằng thiết bị của bạn có thể xử lý sức mạnh xử lý cần thiết cho việc đào tạo mô hình AI.
Bộ dữ liệu: Một bộ dữ liệu tương ứng với định dạng đào tạo AI sẽ đẩy nhanh quá trình học tập mô hình của bạn. Đào tạo hiệu quả phụ thuộc vào dữ liệu chất lượng cao, ảnh hưởng đến độ chính xác và năng lực của mô hình.
Autotrain Advanced : Cung cấp cho bạn quyền truy cập vào tài nguyên đào tạo thiết yếu này cho trí tuệ nhân tạo. Quy trình đào tạo được hợp lý hóa bởi chương trình này, giúp tự động hóa các quy trình quan trọng và tăng năng suất.
Quá trình đào tạo:
Chuẩn bị dữ liệu: Để đảm bảo tính chính xác và đồng nhất, hãy sắp xếp và xử lý trước tập dữ liệu của bạn. Có dữ liệu rõ ràng, có tổ chức là chìa khóa để có được kết quả đào tạo tốt nhất.
Khởi tạo mô hình: Chọn mô hình được đào tạo trước tốt nhất để sử dụng làm điểm bắt đầu của bạn. Sự hội tụ được tăng tốc và quá trình đào tạo được bắt đầu nhanh chóng.
Tinh chỉnh: Điều chỉnh các siêu tham số như tốc độ học, kích thước lô và cài đặt trình tối ưu hóa để tinh chỉnh các tham số. Để cân bằng hiệu suất mô hình và tốc độ hội tụ, hãy điều chỉnh các tham số này.
Lặp lại đào tạo: Chạy tập dữ liệu qua mô hình nhiều lần (kỷ nguyên) để bắt đầu đào tạo. Mô hình cải thiện khả năng hiểu của nó với mỗi lần lặp lại, cải thiện xu hướng dự đoán của nó.
Xác thực và Kiểm tra: Sử dụng bộ dữ liệu xác thực riêng biệt để liên tục xác thực quá trình phát triển mô hình của bạn. Khả năng khái quát hóa của mô hình được đánh giá thông qua thử nghiệm đối với dữ liệu mới.
Phân tích và giám sát: Hãy chú ý đến các số liệu đào tạo. Các chỉ số như đường cong tổn thất, xu hướng chính xác và các số liệu khác cung cấp thông tin về sự phát triển của mô hình.
Tối ưu hóa và tinh chỉnh: Điều chỉnh siêu tham số một cách chiến lược dựa trên kết quả giám sát. Để có được hiệu suất mong muốn, hãy tinh chỉnh mô hình lặp đi lặp lại.
Đánh giá và triển khai: Tiến hành đánh giá bộ dữ liệu thử nghiệm kỹ lưỡng của mô hình cuối cùng. Nếu bạn hài lòng với kết quả, hãy sử dụng mô hình được đào tạo trong các ứng dụng thực tế.
Bộ dữ liệu:
Bộ dữ liệu có thể là cả hai bộ dữ liệu được tạo sẵn giống như bộ dữ liệu có sẵn trong bộ dữ liệu hugface trong bộ dữ liệu cụ thể về tạo văn bản có sẵn. Đối với tập dữ liệu tùy chỉnh, hãy đảm bảo bạn làm theo các bước sau:
Đây là định dạng tập dữ liệu mẫu mà bạn có thể sử dụng: data.csv
Tên | Sự miêu tả | Lời nhắc |
---|---|---|
Lời chào | Cách chào hỏi và đáp trả cơ bản | ###CON NGƯỜI: Xin chào |
Thời tiết | Hỏi về thời tiết | ###CON NGƯỜI: Thời tiết hôm nay thế nào |
Nhà hàng | Hỏi về đề xuất nhà hàng | ###CON NGƯỜI: Bạn có thể gợi ý một nhà hàng tốt không |
Công nghệ | Thảo luận về các xu hướng công nghệ mới nhất | ###CON NGƯỜI: Xu hướng công nghệ năm nay là gì |
Du lịch | Tìm kiếm lời khuyên và lời khuyên du lịch | ###CON NGƯỜI: Mẹo du lịch khi đến thăm Paris |
Đây chỉ là 1 loại.
Khi bạn có tập dữ liệu của mình, đã đến lúc đào tạo AI của bạn dựa trên lượng GPU bạn có và mức độ lớn của tập dữ liệu của bạn, thời gian cũng tương ứng. Bây giờ chúng ta có thể sử dụng các mô-đun nâng cao tự động đào tạo từ hugface để đào tạo AI.
Chúng ta có thể cài đặt autotrain-advanced bằng lệnh này:
pip install autotrain-advanced
Và lệnh này để huấn luyện AI:
autotrain llm --train --project_name your_project_name --model TinyPixel/Llama-2-7B-bf16-sharded --data_path your_data_set --use_peft --use_int4 --learning_rate 2e-4 --train_batch_size 2 --num_train_epochs 3 --trainer sft --model_max_length 2048 --push_to_hub --repo_id your_repo_id -
Bạn có thể thay đổi project_name từ your_project_name
thành tên dự án thực của mình, mô hình từ TinyPixel/Llama-2-7B-bf16-sharded
thành mô hình llama mà bạn muốn đào tạo và data_path thành .
nếu đó là tập dữ liệu tùy chỉnh hoặc huggingface/dataset
ID repo của tập dữ liệu nếu là từ hugface.
Tôi đặt mục tiêu đào tạo một mô hình Llama hoặc bất kỳ mô hình LLM nào mà tôi có thể tham gia để trở thành một trợ lý an ninh mạng hoàn chỉnh nhằm tự động hóa phần lớn các nhiệm vụ của chúng tôi với tư cách là tin tặc, điều đó thật may mắn nếu có được.
Vì vậy, nói về các khả năng, Meta đã phát hành các tài liệu nghiên cứu cho Llama với một số điểm chuẩn. Theo các bài báo, các mô hình Llama có thông số từ 7B đến 65B và có hiệu suất cạnh tranh so với các mô hình ngôn ngữ lớn khác. Ví dụ: Llama-13B vượt trội hơn GPT-3 trên hầu hết các điểm chuẩn mặc dù nhỏ hơn 10 lần. Mô hình tham số 65B của Llama cũng cạnh tranh với các mô hình ngôn ngữ lớn khác như Chinchilla hoặc PaLM-540B. Các bài báo cũng đề cập rằng một mô hình nhỏ hơn được đào tạo lâu hơn cuối cùng có thể rẻ hơn khi suy luận. Nó nói rằng hiệu suất của mô hình 7B tiếp tục được cải thiện ngay cả sau khi mã thông báo 1T. Tuy nhiên, tài liệu không cung cấp các giá trị số cụ thể cho sự khác biệt về hiệu suất giữa các kiểu máy Llama.
Các nguồn khác cho rằng các mô hình Llama linh hoạt và nhanh hơn so với các mô hình GPT và cả các mô hình PaLM khiến nó trở thành một trong những mô hình AI tốt nhất hiện có để sử dụng. Nhưng để hack hoặc bất kỳ nhiệm vụ cụ thể nào về bảo mật, điều này cần rất nhiều sự đào tạo hoặc đầu vào cá nhân. Không dễ để tạo ra một mô hình đào tạo cho nó nhưng một khi được đào tạo, điều này có thể thay đổi cuộc chơi.
Chuyến du hành vào thế giới trí tuệ nhân tạo đã vô cùng rực rỡ, cho thấy tác động đáng kinh ngạc của tự động hóa và tích hợp. Tôi đánh giá cao cách AI đang thay đổi cách chúng ta làm việc và tương tác sau khi chứng kiến khả năng của nó trong nhiều ngành công nghiệp. Kinh nghiệm học tập của tôi là một khám phá, từ việc quan sát quá trình tự động hóa liền mạch của các hoạt động thông thường cho đến trải nghiệm sự kết hợp của AI vào cuộc sống hàng ngày. Tôi đã học được rằng tự động hóa và tích hợp không chỉ là những ý tưởng kỹ thuật khi tôi tìm hiểu thêm về sự phức tạp của AI; đúng hơn, chúng đóng vai trò là chất xúc tác cho sự đổi mới. Với cái nhìn sâu sắc mới tìm thấy này, giờ đây tôi có thể nhìn thấy một thế giới trong đó tiềm năng cải thiện hiệu quả và cộng tác của AI là vô hạn.
Bạn có thể liên hệ với tôi qua LinkedIn . Nếu bạn có bất kỳ mối quan tâm, bạn có thể bình luận dưới đây.
Cảm ơn vì đã đọc.