Từ "chạy bằng cơm" đến "chạy bằng AI": Bộ công cụ của một nhà nghiên cứu thực chiến
Không phải mọi công cụ đều dành cho bạn nhưng đây là những gì thực sự thay đổi cách mình làm nghiên cứu.
Có một khoảnh khắc mình nhớ rất rõ. Đó là lúc mình đang ngồi chỉnh tay từng dấu chấm phẩy trong danh mục tài liệu tham khảo, lúc 11 giờ đêm, trước deadline nộp bản thảo, và nhận ra mình đã dành ba tiếng chỉ để làm một việc mà phần mềm có thể làm trong vài phút.
Không phải vì mình không biết có phần mềm. Mà vì mình chưa thực sự tin rằng nó đáng để học. Mình tin bạn cũng…có thể đang có suy nghĩ này!
Đó là bài học đắt nhất mình từng trả bằng thời gian: trong nghiên cứu, cách bạn tổ chức quy trình quan trọng không kém cách bạn tư duy về vấn đề nghiên cứu. Khi phần lớn năng lượng nhận thức bị tiêu hao vào các thao tác kỹ thuật lặp đi lặp lại, như format references, tìm lại tài liệu đã đọc tuần trước, sàng lọc hàng trăm abstract, sẽ không còn bao nhiêu năng lượng để làm điều duy nhất không thể tự động hóa: đọc sâu, nghĩ kỹ, và viết có chiều sâu.
Bài viết này là hành trình có thật của mình, từ người làm nghiên cứu “chạy bằng cơm” đến người biết chọn đúng công cụ cho đúng việc và những gì mình học được về ranh giới giữa tự động hóa thông minh và phụ thuộc mù quáng vào AI.
Một nguyên tắc trước khi bắt đầu
Trước khi đi vào từng công cụ, mình muốn đặt ra một khung tư duy chung đã giúp định hướng mọi lựa chọn công cụ của mình.
Mình gọi nó là nguyên tắc “tối ưu hóa có chọn lọc”: chỉ tự động hóa những gì không đòi hỏi tư duy học thuật, để giải phóng thời gian và năng lượng cho những gì chỉ bạn mới có thể làm.
Cụ thể hơn, có ba câu hỏi mình tự hỏi trước khi dùng bất kỳ công cụ AI nào:
Công việc này có đòi hỏi phán xét chuyên môn của mình không? (Nếu có → làm tay, dùng công cụ để hỗ trợ chứ không thay thế)
Nếu công cụ sai, mình có đủ nền tảng để phát hiện ra không? (Nếu không → đừng phụ thuộc vào nó)
Việc dùng công cụ này có làm mình hiểu vấn đề ít hơn không? (Nếu có → không dùng)
Với khung này trong đầu, đây là năm nhóm công cụ đã thực sự thay đổi quy trình làm nghiên cứu của mình.
Phần mềm quản lý tài liệu tham khảo — Zotero
Đây là công cụ đầu tiên mình khuyên bất kỳ nhà nghiên cứu nào nên dùng, không có ngoại lệ. Không phải vì nó thú vị hay ấn tượng, mà vì nó giải quyết một vấn đề vừa thực tế vừa âm thầm ngốn một lượng thời gian khổng lồ: quản lý nguồn trích dẫn.
Mình từng làm references thủ công. Mình hiểu cảm giác “mình vẫn ổn mà” khi chưa có quá nhiều bài. Nhưng khi nghiên cứu trở thành công việc hàng ngày — khi một dự án có thể cần hàng trăm nguồn, khi bạn phải juggle nhiều bản thảo cùng lúc, “mình vẫn ổn mà” nhanh chóng biến thành “mình đang dần không ổn”.
Zotero (hoặc Mendeley, EndNote tùy sở thích) giải quyết điều đó bằng cách:
Tổ chức toàn bộ thư viện tài liệu theo từng project, với khả năng tìm kiếm tức thì. Tự động tạo và định dạng trích dẫn theo APA, Chicago, hay bất kỳ chuẩn nào bạn cần, và cập nhật toàn bộ danh mục khi bạn thêm hoặc bỏ một nguồn. Tích hợp trực tiếp vào Word hay Google Docs, cho phép bạn cite trong khi đang viết mà không cần chuyển qua chuyển lại giữa các cửa sổ. Đồng bộ hóa khi làm việc nhóm.
Điểm quan trọng mà nhiều người bỏ qua: Zotero không loại bỏ việc phải hiểu chuẩn trích dẫn. Nó vẫn lấy metadata từ web, và đôi khi thông tin bị sai, ví dụ tên bài báo viết hoa không đúng kiểu Sentence case theo APA, tên tác giả bị nhập ngược. Bạn vẫn cần đọc và kiểm tra, đặc biệt với các nguồn quan trọng. Nhưng thay vì dành ba tiếng để chỉnh cả danh mục, bạn chỉ cần vài phút để xem lại những chỗ nghi ngờ.
Gen AI — ChatGPT, Claude
Mình dùng Gen AI (ChatGPT, Claude) thường xuyên trong nghiên cứu. Nhưng mình không nhờ AI viết bài cho mình. Mình nhờ nó làm những việc cụ thể mà mình biết rõ output của nó cần được kiểm tra như thế nào.
Rà soát ngôn ngữ và diễn đạt. Đôi lúc viết xong một đoạn mà đọc đi đọc lại vẫn thấy lấn cấn, chẳng hạn câu đúng về nội dung nhưng chưa rõ về cấu trúc. Mình sẽ nhờ AI “improve clarity and flow” và đọc lại phiên bản đề xuất với một số câu hỏi: nó có giữ đúng nghĩa gốc không? Nó có dùng từ phù hợp với academic writing không? Đôi khi ChatGPT viết rất màu mè hoặc thêm vào những từ ngữ không chuẩn với lĩnh vực của mình. Đọc lại và hiệu chỉnh để đảm bảo đúng giọng văn học thuật.
Tra cứu định hướng và xác nhận thông tin. Khi bài báo không thể ngắn hơn 10,000 từ, thay vì mò từng journal một, mình hỏi AI: “Journal nào trong lĩnh vực này chấp nhận bài dài như vậy?” Nó đưa ra một danh sách → mình vào từng trang để verify aims/scope/guidelines → mình mới quyết định.
Gợi ý khi bị tắc. Trong quá trình phân tích data, đôi khi gặp một đoạn phức tạp không biết đặt tên như thế nào. Mình sẽ mô tả nó cho AI và hỏi: “Trong qualitative research, khái niệm nào gần nhất với điều này?” Nó gợi ý vài hướng → mình đối chiếu với literature → mình tự quyết định dùng cụm từ cho phù hợp. Đây là dùng AI như một “brainstorming partner”, không phải như nguồn tri thức tối thượng.
Một lưu ý quan trọng từ góc độ học thuật: văn bản học thuật đòi hỏi độ chính xác cao về thuật ngữ, lập luận, và truy xuất nguồn. AI có thể tự tin đưa ra thông tin sai. Điều này là một rủi ro rất nguy hiểm. Quy tắc của mình là: chỉ dùng AI cho những việc mà nếu nó sai, mình đủ nền tảng để phát hiện ra.
Công cụ khám phá tài liệu và mạng lưới trích dẫn — Connected Papers, ResearchRabbit
Đây là nhóm công cụ mình dùng muộn nhất nhưng thấy giá trị nhất khi đã biết dùng đúng thời điểm.
Connected Papers, ResearchRabbit, và Litmaps hoạt động theo nguyên tắc trực quan hóa mạng lưới trích dẫn: bạn đưa vào một bài báo gốc, công cụ sẽ vẽ ra một biểu đồ các nghiên cứu có liên quan, cả những bài đã trích dẫn nó (bài mới hơn) lẫn những bài nó trích dẫn (bài nền tảng hơn). Điều này giúp bạn nhanh chóng nắm bắt mối liên quan tổng thể của một lĩnh vực nghiên cứu: xu hướng đang phát triển ở đâu, nền tảng lý thuyết đến từ đâu, và nghiên cứu của bạn có thể đặt mình ở vị trí nào trong bức tranh đó.
Một số lợi ích khi tìm kiếm tài liệu từ các nền tảng này:
Trực quan hóa mối quan hệ giữa các bài báo (Xem hình minh họa trong comment)
Tiếm kiệm thời gian tìm kiếm tài liệu vì nó tích hợp với các nền tảng khác, giúp mình đọc các nghiên cứu liên quan từ đường dẫn link nó cung cấp nhanh chóng
Phù hợp với nhiều lĩnh vực nghiên cứu. Trong khi một số database giới hạn ở một lĩnh vực cụ thể thì web này giúp tìm các bài báo liên quan ở mọi lĩnh vực
Không chỉ dựa vào trích dẫn mà dựa trên mô hình tương tự về nội dung, giúp tìm các nghiên cứu dù không trực tiếp trích dẫn nhau nhưng có nội dung liên quan
Khám phá các nghiên cứu trước đó và các bài mới hơn để có cái nhìn tổng quan (phương pháp, lý thuyết, ngữ cảnh, etc.) về đề tài của mình.
Tuy nhiên, mình có một nguyên tắc cứng khi dùng các công cụ này:
chỉ dùng sau khi đã tìm tài liệu từ database chuyên ngành
chỉ khi đã có ít nhất một bài báo gốc chất lượng cao và có liên quan chặt chẽ đến bài của mình
Lý do là: nếu bài báo gốc không đủ chất lượng hoặc không đủ “central” trong lĩnh vực, mạng lưới nó tạo ra sẽ kém đại diện. Garbage in, garbage out, kể cả với công cụ AI.
Hầu hết các nền tảng này có giới hạn số lần tìm kiếm với tài khoản miễn phí, nên mình tiết kiệm "quota" cho đúng lúc: khi đã xác định được bài báo gốc, và cần có cái nhìn tổng quan về field trước khi viết phần literature review.
Công cụ hỗ trợ systematic review — Covidence, Rayyan
Nhóm công cụ này không dành cho tất cả mọi người. Nhưng nếu bạn đang hoặc sẽ thực hiện systematic literature review, việc không biết đến chúng là một thiệt thòi đáng kể.
Systematic review là một trong những dạng nghiên cứu đòi hỏi quy trình nghiêm ngặt nhất: từ việc xác định tiêu chí inclusion/exclusion, sàng lọc hàng trăm đến hàng nghìn abstract qua nhiều vòng, cho đến tracking quyết định của từng reviewer và quản lý toàn bộ quy trình theo chuẩn PRISMA. Làm điều này thủ công trong Excel vừa tốn thời gian vừa tăng nguy cơ lỗi hệ thống.
Covidence và Rayyan tự động hóa phần lớn quy trình này: phân công bài cho từng reviewer, theo dõi kết quả sàng lọc, ghi lại lý do loại trừ, và hỗ trợ làm việc nhóm xuyên múi giờ. Đặc biệt với Rayyan, AI của nó có thể ưu tiên các bài có khả năng liên quan cao dựa trên pattern từ các quyết định trước đó của reviewer, giúp giảm đáng kể thời gian sàng lọc mà vẫn đảm bảo recall rate cao.
Một điều cần lưu ý là phần lớn các nền tảng này tính phí, và phí không hề thấp với tài khoản cá nhân. Chúng phù hợp nhất với dự án nhóm có tài trợ hoặc khi bạn có thể truy cập thông qua tài khoản của trường.
Phần mềm phân tích dữ liệu — MAXQDA và Dedoose
Mình để nhóm này cuối cùng không phải vì nó ít quan trọng, mà vì đây là công cụ mình có nhiều điều muốn nói nhất và đã thay đổi rất lớn quá trình làm nghiên cứu của mình.
Với những ai chưa biết: MAXQDA, NVivo, Dedoose, và ATLAS.ti là nhóm phần mềm CAQDAS (Computer-Assisted Qualitative Data Analysis Software) được thiết kế để hỗ trợ phân tích dữ liệu định tính, định lượng, và cả mixed-method một cách có hệ thống. Và trong khoảng hai năm qua, cả bốn đều tích hợp AI theo những cách khá đáng kể.
Mình vẫn là người dùng MAXQDA trung thành. Lý do cũng không thay đổi: tất cả tài liệu mình đọc, ghi chú, code, và phân tích đều ở một nền tảng duy nhất. Không còn phải mở từ PDF này sang PDF khác, tìm trong đống highlight của Word, hay đối chiếu giữa Excel và tài liệu gốc. Khả năng truy xuất và tổng hợp ghi chú của nó vẫn là lý do số một mình dùng nó cho cả literature review lẫn data analysis.
Điều đáng nói thêm là tính năng AI Assist mà MAXQDA đã tích hợp từ năm 2023 và tiếp tục phát triển. AI Assist có thể tóm tắt nội dung của một code (tức là tổng hợp tất cả đoạn trích được mã hóa với cùng một code), gợi ý subcodes dựa trên pattern trong data, và cho phép bạn “chat” với tài liệu của mình bằng ngôn ngữ tự nhiên.
Nhưng cần lưu ý là tích hợp AI không tự động làm bạn phân tích tốt hơn. Trong qualitative research, quá trình đọc sâu, xây dựng code, và phát triển theme là quá trình nhà nghiên cứu tạo ra ý nghĩa từ dữ liệu, đây là cốt lõi của phương pháp luận. AI có thể tóm tắt những gì đã có, nhưng nó không thể thay thế cho việc bạn ngồi với data và đặt câu hỏi: Điều này có ý nghĩa gì? Nó phản ánh điều gì về trải nghiệm của người tham gia?
Mình dùng AI Assist của MAXQDA như một bước kiểm tra: sau khi đã tự phân tích, mình xem AI tóm tắt code như thế nào và nếu nó nhấn mạnh điều gì khác với nhận định của mình, đó là tín hiệu để đọc lại data một lần nữa. Không phải để AI điều chỉnh kết luận của mình, mà để mình điều chỉnh góc nhìn của mình nếu thực sự cần.
Công cụ giải phóng thời gian là có thật và đáng đầu tư. Nhưng thời gian được giải phóng đó cần được dùng vào đúng chỗ: đọc kỹ hơn, nghĩ sâu hơn, viết có chiều sâu hơn. Không phải để làm thêm nhiều thứ hơn với tốc độ nhanh hơn mà không có chiều sâu.
AI trong nghiên cứu là công cụ tăng hiệu suất, không phải công cụ thay thế tư duy. Ranh giới đó không phải lúc nào cũng rõ ràng, và bạn cần chủ động vẽ ra nó cho mình dựa trên hiểu biết về phương pháp luận, không dựa trên sự tiện lợi nhất thời.
Và có lẽ điều quan trọng nhất: bạn không cần dùng tất cả mọi thứ cùng một lúc. Bắt đầu từ một công cụ, dùng thật thành thục, hiểu cả giới hạn của nó, rồi mới thêm cái tiếp theo. Đó là cách mình đi từ “chạy bằng cơm” sang dùng AI một cách có chủ đích, và đó cũng là cách duy nhất để bạn vẫn là người chủ của quy trình nghiên cứu của mình.




Hay quá cô Thư ơi. Em rất mong chờ bài viết về MaxQDA ạ.