Tóm tắt
-
Hệ thống hóa quy trình kỹ thuật để phát hiện tấm pin mặt trời, bao gồm các giai đoạn cốt lõi từ nền tảng dữ liệu (thu thập ảnh vệ tinh đa dạng độ phân giải và gán nhãn), triển khai mô hình, cho đến xử lý hậu kỳ (vector hóa, lọc kết quả) để tạo ra dữ liệu không gian địa lý hữu ích.
-
Phương pháp từ học máy truyền thống, qua các mô hình học sâu tiêu chuẩn (U-Net, Mask R-CNN), đến các kiến trúc phát hiện đối tượng hiện đại (dòng YOLOv9, YOLOv10), và cuối cùng là hướng tiếp cận đột phá sử dụng Mô hình Ngôn ngữ Lớn (LLM) thông qua các kỹ thuật prompting và tinh chỉnh.
-
Mở ra các ứng dụng thực tiễn trong việc quản lý lưới điện, hoạch định chính sách năng lượng, đồng thời cho phép phân tích các vấn đề xã hội sâu sắc hơn như vấn đề công lý không gian trong quá trình chuyển dịch năng lượng.
Quá trình chuyển dịch sang năng lượng tái tạo trên quy mô toàn cầu đã đặt ra yêu cầu cấp thiết về việc giám sát và quản lý các tài nguyên năng lượng phân tán, trong đó hệ thống quang điện (photovoltaic – PV) mặt trời chiếm một vai trò trung tâm. Việc xác định chính xác vị trí, số lượng và quy mô của các công trình lắp đặt tấm pin mặt trời là một nhiệm vụ nền tảng, cung cấp dữ liệu đầu vào quan trọng cho việc hoạch định chính sách năng lượng, tối ưu hóa lưới điện, và đánh giá mức độ thâm nhập của năng lượng sạch. Theo truyền thống, công việc này được thực hiện thông qua các cuộc khảo sát thực địa hoặc báo cáo hành chính, các phương pháp này thường tốn kém, không đồng bộ và thiếu phạm vi bao phủ toàn diện.
Sự phát triển của công nghệ viễn thám và trí tuệ nhân tạo (AI) đã mở ra một hướng tiếp cận mới để tự động hóa quy trình này. Việc sử dụng ảnh vệ tinh kết hợp với các thuật toán học máy cho phép thực hiện giám sát trên quy mô lớn, với tần suất cao và chi phí thấp hơn đáng kể. Bài viết này sẽ cung cấp một cái nhìn tổng quan, mang tính hệ thống về các phương pháp kỹ thuật được sử dụng để phát hiện tấm pin mặt trời từ ảnh vệ tinh. Nội dung sẽ bao quát toàn bộ quy trình, từ khâu thu thập và chuẩn bị dữ liệu, khám phá các kiến trúc mô hình từ học máy truyền thống đến các mô hình học sâu tiên tiến và các phương pháp đột phá sử dụng mô hình ngôn ngữ lớn (LLM), cho đến các bước xử lý hậu kỳ và phân tích kết quả. Mục tiêu của bài viết là hệ thống hóa kiến thức, cung cấp một lộ trình rõ ràng cho các nhà nghiên cứu, kỹ sư và bất kỳ ai quan tâm đến lĩnh vực Trí tuệ Nhân tạo Không gian địa lý (GeoAI).
Nền tảng Dữ liệu
Chất lượng và đặc tính của dữ liệu đầu vào là yếu tố quyết định đến hiệu suất của bất kỳ mô hình phát hiện nào. Một bộ dữ liệu được xây dựng cẩn thận không chỉ đảm bảo độ chính xác của mô hình mà còn ảnh hưởng đến khả năng khái quát hóa của nó trên các khu vực địa lý và điều kiện môi trường khác nhau. Quy trình xây dựng nền tảng dữ liệu bao gồm hai giai đoạn chính: thu thập dữ liệu ảnh và chuẩn bị, gán nhãn.
Thu thập Dữ liệu Ảnh (Image Acquisition)
Nguồn ảnh vệ tinh là thành phần đầu tiên của quy trình. Sự lựa chọn nguồn ảnh phụ thuộc vào sự cân bằng giữa độ phân giải không gian, chi phí và mức độ sẵn có.
- Nguồn dữ liệu công khai: Các chương trình như Landsat (NASA/USGS) và Sentinel (ESA) cung cấp dữ liệu đa phổ trên phạm vi toàn cầu và hoàn toàn miễn phí. Ảnh từ Sentinel-2, với độ phân giải lên tới 10 mét/pixel, là một lựa chọn phổ biến cho các phân tích quy mô lớn. Tuy nhiên, độ phân giải này có thể không đủ để phát hiện các hệ thống pin mặt trời dân dụng quy mô nhỏ.
- Nguồn dữ liệu Thương mại (Độ phân giải rất cao – VHR): Các công ty như Maxar (với vệ tinh WorldView) cung cấp ảnh có độ phân giải dưới 1 mét (sub-meter), có thể xuống tới 30 cm hoặc thậm chí 15.5 cm (với công nghệ HD). Độ phân giải này cho phép nhận dạng rõ ràng các cụm pin nhỏ trên mái nhà. Hạn chế chính của nguồn dữ liệu này là chi phí cao và các điều khoản cấp phép sử dụng.
- API và Nền tảng tích hợp: Việc truy cập dữ liệu thường được thực hiện thông qua các giao diện lập trình ứng dụng (API). Ví dụ, Google Maps Static API cho phép truy xuất các ảnh hàng không có độ phân giải cao tại các tọa độ cụ thể. Các nền tảng như Google Earth Engine hay Brazil Data Cube cung cấp khả năng truy vấn và xử lý dữ liệu không gian-thời gian trực tiếp trên nền tảng đám mây, giảm thiểu yêu cầu về lưu trữ và năng lực tính toán tại chỗ. Tọa độ của các công trình lắp đặt đã biết có thể được thu thập từ các nguồn dữ liệu mở như OpenStreetMap (OSM) thông qua Overpass API để định hướng cho việc tải ảnh.
Chuẩn bị và Gán nhãn Dữ liệu (Data Preparation and Labeling)
Sau khi có ảnh thô, bước tiếp theo là tạo ra “sự thật mặt đất” (ground truth) – tức là các nhãn chính xác cho vị trí của các tấm pin mặt trời. Đây là một trong những công đoạn tốn nhiều công sức nhất trong toàn bộ quy trình.
- Quy trình Chú thích (Annotation): Các chuyên viên phân tích hình ảnh (annotator) sử dụng các phần mềm GIS chuyên dụng như QGIS để thực hiện việc gán nhãn. Quy trình phổ biến bao gồm việc vẽ các đa giác (polygons) bao quanh từng cụm pin mặt trời. Đối với các mô hình phân đoạn thực thể (instance segmentation), các đa giác này chính là nhãn cuối cùng (mặt nạ – mask). Đối với các mô hình phát hiện đối tượng (object detection), các đa giác này sẽ được chuyển đổi thành hộp giới hạn (bounding boxes) hình chữ nhật.
- Thách thức và Xác thực: Quá trình gán nhãn thủ công tiềm ẩn nguy cơ sai sót do yếu tố con người, đặc biệt là với các vật thể trông tương tự như cửa sổ trời, mái nhà tối màu hoặc bóng râm. Để đảm bảo chất lượng, cần có một quy trình xác thực. Một phương pháp hiệu quả là đối chiếu các nhãn đã tạo với một nguồn ảnh có độ phân giải cao hơn và đáng tin cậy hơn, ví dụ như ảnh hàng không trên Google Earth. Các nhãn có thể được phân loại theo mức độ tin cậy (cao, trung bình, thấp) dựa trên kết quả xác thực này.
- Xây dựng Bộ dữ liệu Tùy chỉnh: Trong nhiều trường hợp, các bộ dữ liệu có sẵn không đáp ứng được yêu cầu cụ thể của một bài toán (ví dụ, khác biệt về kiến trúc mái nhà, điều kiện khí hậu). Khi đó, việc tự xây dựng một bộ dữ liệu tùy chỉnh là cần thiết. Quá trình này, mặc dù tốn kém, cho phép kiểm soát hoàn toàn chất lượng và đặc tính của dữ liệu huấn luyện, từ đó tối ưu hóa hiệu suất của mô hình cho một khu vực mục tiêu cụ thể.
Các hướng tiếp cận mô hình hóa
Với một bộ dữ liệu đã được chuẩn bị, bước tiếp theo là lựa chọn và triển khai một kiến trúc mô hình phù hợp. Lĩnh vực phát hiện đối tượng đã trải qua nhiều giai đoạn phát triển, từ các phương pháp kinh điển đến các kiến trúc học sâu phức tạp.
Các phương pháp Học máy Truyền thống
Trước kỷ nguyên học sâu, việc phát hiện đối tượng dựa vào các thuật toán học máy truyền thống như Support Vector Machines (SVM), Random Forest, hay Logistic Regression. Các phương pháp này yêu cầu một bước trích xuất đặc trưng thủ công (handcrafted features). Kỹ sư sẽ phải định nghĩa các đặc trưng hình ảnh như màu sắc, kết cấu, hoặc các gradient hướng (ví dụ: Histogram of Oriented Gradients – HOG) để mô tả đối tượng. Hạn chế lớn của hướng tiếp cận này là khả năng khái quát hóa kém. Các đặc trưng được thiết kế cho một bộ dữ liệu cụ thể thường không hoạt động tốt khi áp dụng cho các hình ảnh có điều kiện ánh sáng, góc chụp, hoặc bối cảnh khác biệt.
Kỷ nguyên Học sâu: Mạng Nơ-ron Tích chập (CNN)
Sự ra đời của Mạng Nơ-ron Tích chập (CNN) đã tạo ra một cuộc cách mạng. Thay vì trích xuất đặc trưng thủ công, CNN có khả năng tự động học các đặc trưng phân cấp trực tiếp từ dữ liệu hình ảnh. Các lớp tích chập đầu tiên học các đặc trưng cơ bản như cạnh và góc, trong khi các lớp sâu hơn học các đặc trưng phức tạp hơn như hình dạng và kết cấu của tấm pin mặt trời. Có hai họ kiến trúc CNN chính được áp dụng cho bài toán này.
- Kiến trúc Phân đoạn (Segmentation Architectures): Các mô hình này nhằm mục đích phân loại từng pixel trong ảnh, tạo ra một “mặt nạ” chi tiết cho đối tượng.
- U-Net: Ban đầu được thiết kế cho phân đoạn hình ảnh y tế, U-Net có kiến trúc đối xứng gồm một đường mã hóa (encoder) để nắm bắt bối cảnh và một đường giải mã (decoder) để định vị chính xác. Các kết nối tắt (skip connections) giữa encoder và decoder cho phép mô hình kết hợp thông tin từ nhiều cấp độ đặc trưng, giúp tạo ra các mặt nạ có ranh giới sắc nét.
- Mask R-CNN: Đây là kiến trúc hai giai đoạn mạnh mẽ cho bài toán phân đoạn thực thể (instance segmentation), tức là không chỉ tạo mặt nạ mà còn phân biệt được từng đối tượng riêng lẻ. Giai đoạn đầu, một Mạng Đề xuất Vùng (Region Proposal Network – RPN) sẽ đề xuất các vùng có khả năng chứa đối tượng. Giai đoạn hai, mô hình sẽ thực hiện phân loại, tinh chỉnh hộp giới hạn và tạo ra một mặt nạ nhị phân cho từng vùng đề xuất.
- Kiến trúc Phát hiện Đối tượng (Object Detection Architectures): Các mô hình này tập trung vào việc vẽ các hộp giới hạn xung quanh đối tượng.
- YOLO (You Only Look Once): Đây là đại diện tiêu biểu cho các kiến trúc một giai đoạn. Thay vì quy trình đề xuất vùng phức tạp, YOLO chia ảnh thành một lưới ô và dự đoán hộp giới hạn cùng xác suất lớp trực tiếp từ mỗi ô. Cách tiếp cận này giúp YOLO đạt được tốc độ suy luận rất cao.
- Sự tiến hóa của YOLO: Dòng mô hình YOLO đã liên tục được cải tiến. YOLOv9 giới thiệu các cơ chế như Thông tin Gradient Lập trình được (PGI) để giải quyết vấn đề “thắt cổ chai thông tin”, đảm bảo thông tin không bị mất mát khi đi qua các lớp sâu. YOLOv10, phiên bản mới nhất, tiếp tục tối ưu hóa bằng cách loại bỏ sự phụ thuộc vào bước xử lý hậu kỳ Non-Maximum Suppression (NMS), giúp giảm độ trễ và cải thiện hiệu suất. Các phiên bản YOLO hiện đại thường được xem là tiêu chuẩn vàng (state-of-the-art) cho các bài toán phát hiện đối tượng trong thời gian thực.
Hướng tiếp cận Đột phá: Mô hình Ngôn ngữ Lớn (LLM)
Gần đây, một hướng đi hoàn toàn mới đã xuất hiện: sử dụng các Mô hình Ngôn ngữ Lớn đa phương thức (Multimodal LLMs) như GPT-4o cho các nhiệm vụ thị giác máy tính. Vốn được thiết kế cho xử lý ngôn ngữ, khả năng hiểu bối cảnh và suy luận của LLM mở ra tiềm năng giải quyết bài toán phát hiện pin mặt trời một cách linh hoạt hơn. Tuy nhiên, LLM cũng đối mặt với những thách thức riêng:
- Suy luận logic nhiều bước: Việc xác định pin mặt trời đòi hỏi một chuỗi suy luận (phân biệt với bóng râm, hiểu bối cảnh mái nhà) mà LLM có thể gặp khó khăn.
- Định dạng đầu ra không nhất quán: LLM có xu hướng tạo ra các câu trả lời dạng văn bản tự do, gây khó khăn cho việc tích hợp tự động.
- Phân loại sai các vật thể tương tự: Bóng râm, bãi đỗ xe, hoặc các bề mặt phẳng tối màu có thể dễ dàng bị nhận nhầm.
Để khắc phục các vấn đề này, khuôn khổ PVAL (PV Assessment with LLMs) đã được đề xuất, bao gồm một hệ thống các kỹ thuật “hướng dẫn” LLM:
- Kỹ thuật Prompting (Prompt Engineering): Đây là nghệ thuật thiết kế các câu lệnh đầu vào để LLM hiểu và thực hiện đúng nhiệm vụ.
- Phân rã Tác vụ (Task Decomposition): Chia yêu cầu lớn thành các bước nhỏ, có cấu trúc trong prompt: 1) Phân tích tổng thể ảnh, 2) Xác định vị trí, 3) Ước tính số lượng.
- Tiêu chuẩn hóa Đầu ra (Output Standardization): Bắt buộc LLM phải trả lời theo một định dạng JSON nghiêm ngặt, với các trường và giá trị được định nghĩa trước (ví dụ: “location”: [“top-left”, “center”, “NA”]).
- Prompting Ít mẫu (Few-shot Prompting): Cung cấp một vài ví dụ (cả trường hợp có và không có pin mặt trời) ngay trong prompt để LLM “học hỏi” nhanh chóng mà không cần huấn luyện lại.
- Kỹ thuật Tinh chỉnh (Fine-Tuning): Sau khi có một nền tảng tốt từ prompting, mô hình LLM sẽ được huấn luyện tiếp trên một bộ dữ liệu chuyên biệt về pin mặt trời. Quá trình này giúp mô hình “chuyên môn hóa”, cải thiện đáng kể độ chính xác trong việc nhận dạng các đặc điểm tinh vi của tấm pin.
- Cơ chế Độ tin cậy (Confidence Mechanism): Mô hình được thiết kế để trả về hai chỉ số: Likelihood (xác suất có pin) và Confidence (mức độ tự tin của mô hình). Cặp chỉ số này rất hữu ích cho việc gán nhãn tự động: các dự đoán có cả hai chỉ số cao có thể được tự động chấp nhận, trong khi các dự đoán có độ tự tin thấp sẽ được gắn cờ để con người kiểm tra lại.
Quy trình Thực thi và Đánh giá
Việc triển khai một mô hình phát hiện không chỉ dừng lại ở việc lựa chọn kiến trúc. Một quy trình thực thi hoàn chỉnh bao gồm nhiều bước từ chuẩn bị môi trường đến phân tích kết quả cuối cùng.
Thiết lập Môi trường và Tiền xử lý
- Công cụ: Quy trình thường được xây dựng bằng ngôn ngữ Python với các thư viện học sâu phổ biến như PyTorch hoặc TensorFlow. Các gói chuyên dụng như Ultralytics cung cấp một giao diện cấp cao để làm việc với các mô hình YOLO. Môi trường tính toán có thể là các nền tảng đám mây như Google Colab (với GPU miễn phí) hoặc các máy chủ cục bộ có trang bị GPU mạnh.
- Tiền xử lý:
- Chia ảnh (Image Tiling/Chipping): Ảnh vệ tinh gốc thường có kích thước rất lớn. Để xử lý hiệu quả, chúng được chia thành các ô nhỏ hơn có kích thước cố định (ví dụ: 256×256 hoặc 416×416 pixels) phù hợp với đầu vào của mô hình.
- Tăng cường Dữ liệu (Data Augmentation): Để tăng tính đa dạng của dữ liệu huấn luyện và giúp mô hình khái quát hóa tốt hơn, các phép biến đổi ngẫu nhiên được áp dụng cho ảnh huấn luyện, bao gồm xoay, lật, thay đổi độ sáng, độ tương phản, hoặc làm mờ.
Huấn luyện và Đánh giá
- Huấn luyện: Mô hình được huấn luyện qua nhiều vòng lặp (epochs). Trong mỗi vòng, mô hình sẽ “nhìn” vào một lô dữ liệu (batch), đưa ra dự đoán, so sánh với nhãn thật và cập nhật trọng số của nó để giảm thiểu sai số (loss). Các siêu tham số quan trọng như tốc độ học (learning rate), kích thước lô (batch size) cần được tinh chỉnh để đạt hiệu suất tối ưu.
- Các Thước đo Đánh giá: Hiệu suất của mô hình không thể được đánh giá một cách chủ quan. Cần có các thước đo định lượng:
- Intersection over Union (IoU) / Jaccard Index: Đo lường mức độ chồng chéo giữa hộp giới hạn/mặt nạ dự đoán và hộp giới hạn/mặt nạ thật. Đây là thước đo cơ bản nhất về độ chính xác vị trí.
- Precision (Độ chính xác): Trong số tất cả các đối tượng được mô hình dự đoán là pin mặt trời, có bao nhiêu phần trăm là đúng? (Đo lường mức độ dương tính giả).
- Recall (Độ bao phủ): Trong số tất cả các tấm pin mặt trời có thật trong ảnh, mô hình tìm thấy được bao nhiêu phần trăm? (Đo lường mức độ âm tính giả).
- F1-Score: Trung bình điều hòa của Precision và Recall, cung cấp một cái nhìn cân bằng về hiệu suất.
- mean Average Precision (mAP): Thước đo tổng hợp phổ biến nhất trong phát hiện đối tượng, tính toán giá trị Precision trung bình trên nhiều ngưỡng IoU và trên tất cả các lớp đối tượng.
Xử lý Hậu kỳ và Tinh chỉnh Kết quả
Kết quả thô từ mô hình thường cần được xử lý thêm để trở nên hữu ích.
- Vector hóa (Vectorization): Chuyển đổi các mặt nạ raster (dạng pixel) thành các đa giác vector. Điều này cho phép thực hiện các phân tích không gian và tính toán thuộc tính hình học.
- Làm mượt và Chuẩn hóa Hình dạng (Regularize): Các đa giác được vector hóa trực tiếp từ pixel thường có đường viền “răng cưa”. Các thuật toán xử lý hậu kỳ có thể “nắn” các đa giác này thành các hình có góc vuông, trông tự nhiên và phù hợp hơn với hình dạng thực tế của tấm pin mặt trời.
- Lọc Dương tính giả: Sau khi có dữ liệu vector, có thể tính toán các thuộc tính hình học cho mỗi đối tượng được phát hiện (ví dụ: diện tích, chu vi, độ dài/thon – elongation). Dựa trên các thuộc tính này, có thể thiết lập các quy tắc để lọc bỏ các đối tượng không mong muốn (ví dụ: loại bỏ các đối tượng quá nhỏ hoặc quá dài và hẹp, vốn ít có khả năng là pin mặt trời).
Phân tích Tác động và Các Vấn đề Mở rộng
Việc phát hiện thành công các tấm pin mặt trời chỉ là bước khởi đầu. Giá trị thực sự nằm ở việc sử dụng dữ liệu này để giải quyết các vấn đề lớn hơn.
Ứng dụng Thực tiễn
Dữ liệu về vị trí và quy mô của các hệ thống PV cho phép các nhà quản lý lưới điện mô hình hóa dòng năng lượng, dự báo sản lượng, và tối ưu hóa hoạt động của mạng lưới phân phối. Các nhà hoạch định chính sách có thể sử dụng dữ liệu này để đánh giá hiệu quả của các chương trình khuyến khích năng lượng mặt trời. Các công ty năng lượng có thể xác định các khu vực tiềm năng để phát triển thị trường. Hơn nữa, việc phân tích thống kê trên bộ dữ liệu được phát hiện (ví dụ: tổng diện tích, phân bố kích thước) cung cấp một cái nhìn tổng quan về bối cảnh năng lượng mặt trời của một khu vực.
Bối cảnh Xã hội: Vấn đề Công lý Không gian
Một khía cạnh quan trọng thường bị bỏ qua là tác động xã hội của việc phát triển năng lượng. Việc phân tích sự phân bổ không gian của các tấm pin mặt trời có thể làm lộ ra các vấn đề về công lý không gian (spatial justice). Ví dụ, một nghiên cứu tại Đài Loan chỉ ra rằng các công trình lắp đặt pin mặt trời quy mô lớn có xu hướng tập trung ở các khu vực nông nghiệp, nông thôn (miền Trung và miền Nam), chiếm dụng đất đai và làm thay đổi cảnh quan. Trong khi đó, các trung tâm đô thị, công nghiệp (miền Bắc) lại là nơi tiêu thụ năng lượng chính. Điều này đặt ra câu hỏi về sự phân bổ công bằng giữa chi phí môi trường-xã hội và lợi ích kinh tế. Việc phân tích dữ liệu phát hiện trong bối cảnh nhân khẩu học và kinh tế-xã hội có thể cung cấp những hiểu biết sâu sắc cho một quá trình chuyển đổi năng lượng công bằng và bền vững hơn.
Hướng phát triển Tương lai
Lĩnh vực tự động phát hiện tấm pin mặt trời từ ảnh vệ tinh đã chứng kiến sự tiến bộ nhanh chóng, chuyển từ các phương pháp học máy truyền thống sang các kiến trúc CNN hiệu suất cao như YOLO, và gần đây nhất là sự xuất hiện của các phương pháp đột phá dựa trên LLM như PVAL. Không có một mô hình “tốt nhất” duy nhất cho mọi trường hợp; sự lựa chọn phụ thuộc vào các yếu tố như dữ liệu sẵn có, tài nguyên tính toán và yêu cầu cụ thể của bài toán.
Hướng phát triển trong tương lai rất đa dạng và hứa hẹn:
- Khám phá các Kiến trúc Mới: Các kiến trúc khác như RetinaNet hay Single Shot MultiBox Detector (SSD) vẫn còn không gian để khám phá và so sánh.
- Tích hợp Dữ liệu (Data Fusion): Kết hợp ảnh quang học với các nguồn dữ liệu khác như LiDAR (cung cấp thông tin độ cao) có thể giúp cải thiện đáng kể độ chính xác, ví dụ như loại bỏ các vật thể trên mặt đất bị nhận nhầm là pin trên mái nhà.
- Tối ưu hóa Gán nhãn: Cải tiến các cơ chế gán nhãn tự động và bán tự động, sử dụng các kỹ thuật như học bán giám sát (semi-supervised learning), sẽ giúp giảm bớt gánh nặng của việc tạo dữ liệu thủ công và đẩy nhanh quá trình triển khai các giải pháp trên quy mô lớn.
Nhìn chung, sự kết hợp giữa dữ liệu không gian địa lý ngày càng phong phú và các thuật toán AI ngày càng tinh vi đang mở ra những khả năng chưa từng có để giám sát và quản lý tài nguyên năng lượng tái tạo, đóng góp thiết thực vào một tương lai năng lượng bền vững hơn.
Các nguồn tham khảo thêm:
- GitHub – FederCO23/UCSD_MLBootcamp_Capstone: This repo contains the submission for the Bootcamp Capstone project
- A solar panel dataset of very high resolution satellite imagery to support the Sustainable Development Goals | Scientific Data
- Using satellite images to investigate the solar panel installation and spatial injustice in Taiwan – ScienceDirect
- GeoAI Tutorial 13: Train a Deep Learning Model for Detecting Solar Panels – YouTube
- Solar Photovoltaic Assessment with Large Language Model
- Enabling Automatic Solar PV Array Identification using Big Satellite Imagery | ACM Journal on Computing and Sustainable Societies
- solar-panel-detection-on-satellite-images-from-faster-r-cnn-to-y.pdf