Hiện nay, eCognition được cho là phần mềm tốt nhất để phân mảnh cho ản dịch - Hiện nay, eCognition được cho là phần mềm tốt nhất để phân mảnh cho ản Anh làm thế nào để nói

Hiện nay, eCognition được cho là ph

Hiện nay, eCognition được cho là phần mềm tốt nhất để phân mảnh cho ảnh vệ tinh có độ phân giải cao và siêu cao. Tuy nhiên, quá trình phân mảnh ảnh chủ yếu dựa vào việc thử nghiệm để tìm các thông số phân mảnh thích hợp cho từng cảnh ảnh nên thường tốn thời gian và phụ thuộc nhiều vào kinh nghiệm của người sử dụng. Bài báo giới thiệu một phương pháp ước lượng các thông số tối ưu nhằm phân mảnh ảnh đa độ phân giải theo đối tượng trong eCognition. Cách tiếp cận của phương pháp là từ mối quan hệ về phổ và hình dạng của đối tượng đào tạo và các đối tượng con của nó tìm ra các thông số phù hợp để khi phân mảnh sẽ tạo ra các đối tượng giống như đối tượng đào tạo. Các bước thực hiện như sau: (1) Mở ảnh cần phân mảnh trên ArcGIS và số hóa một đối tượng tương đối đồng nhất trên ảnh gọi là đối tượng đào tạo; (2) Mở ảnh và lựa chọn khu vực chứa đối tượng đào tạo trên eCognition; (3) Phân mảnh cho khu vực lựa chọn với các tham số mặc định của phần mềm; (4) Chuyển kết quả sang phần mềm ArcGIS với các dữ liệu thuộc tính: Sai tiêu chuẩn, giá trị đồng nhất về phổ của đối tượng với các đối tượng liền kề, độ sáng chung (Brightness) và số lượng Pixel (Area) của từng đối tượng con; (5) Ghép các đối tượng con nằm trong đối tượng đào tạo thành khoanh vi tổng và chuyển kết quả sang phần mềm ArcGIS với dữ liệu thuộc tính tương tự như đối tượng con; (6) Tính toán giá trị các tham số: Scale parameter, Shape, Compactness cho đối tượng đào tạo; (7) Các thông số ước tính được sử dụng để phân mảnh cho toàn bộ cảnh ảnh.
0/5000
Từ: -
Sang: -
Kết quả (Anh) 1: [Sao chép]
Sao chép!
Currently, the eCognition is considered the best software to defrag for satellite image has a high resolution and super high. However, the process of picture fragmentation is based mainly on the testing to find the appropriate for each fragmentation landscape photo is often time consuming and depends greatly on the experience of the user. The article introduces a method to estimate the optimal parameters in order to defrag a multi resolution image as objects in eCognition. The approach of the method is from the relationship of the spectrum and the shape of the object and its child objects to find out proper parameters for when fragmentation will create the same object as the object of training. The steps are as follows: (1) open the photo need to defrag on ArcGIS and digitize a relatively homogeneous object on the photo called the training objects; (2) open the photo and select the area that contains the object of training on eCognition; (3) fragmentation for the area of selection with the default parameters of the software; (4) transfer the results to the ArcGIS software with the attribute data: the wrong standard, the value of the object's spectrum with adjacent objects, brightness (Brightness) and the number of Pixels (Area) of each child object; (5) the transplant child objects are in the training audience circled vi General and transfer the results to data with ArcGIS software attributes similar to child objects; (6) calculate the values of the parameters: Scale parameter, Shape, Compactness for the training objects; (7) The estimated parameters are used for fragmentation for the entire scene.
đang được dịch, vui lòng đợi..
Kết quả (Anh) 2:[Sao chép]
Sao chép!
Currently, eCognition supposedly the best software to defrag to satellite images of high resolution and super high. However, the fragmented images relies on testing to find the appropriate parameters for each fragmented landscape pictures so often time-consuming and dependent on the user's experience. This paper presents a method for estimating the optimal parameters to fragmented multi-resolution image objects in eCognition. The approach of the method is the relationship of the spectrum and the shape of the object and the subject of training its children find appropriate parameters for the defragmentation will create objects like object peach apple. The steps are as follows: (1) Open the image in ArcGIS fragmentation and digitizing an object in the picture is relatively homogeneous object called training; (2) Open the image and select the area containing objects on eCognition training; (3) Fragmentation selected area with the default parameters of the software; (4) Transfer the results into the software with data ArcGIS attribute: Sai standards, universal values ​​of uniformity in subjects with adjacent objects, the general brightness (Brightness) and the number of pixels (Area) of each child object; (5) Transplantation of human subjects in a frozen object of general education and transfer the results into ArcGIS with attribute data similar to human subjects; (6) Calculation of the parameter values: Scale parameter, Shape, compactness for trainees; (7) The estimated parameters are used to defrag the whole scene photos.
đang được dịch, vui lòng đợi..
 
Các ngôn ngữ khác
Hỗ trợ công cụ dịch thuật: Albania, Amharic, Anh, Armenia, Azerbaijan, Ba Lan, Ba Tư, Bantu, Basque, Belarus, Bengal, Bosnia, Bulgaria, Bồ Đào Nha, Catalan, Cebuano, Chichewa, Corsi, Creole (Haiti), Croatia, Do Thái, Estonia, Filipino, Frisia, Gael Scotland, Galicia, George, Gujarat, Hausa, Hawaii, Hindi, Hmong, Hungary, Hy Lạp, Hà Lan, Hà Lan (Nam Phi), Hàn, Iceland, Igbo, Ireland, Java, Kannada, Kazakh, Khmer, Kinyarwanda, Klingon, Kurd, Kyrgyz, Latinh, Latvia, Litva, Luxembourg, Lào, Macedonia, Malagasy, Malayalam, Malta, Maori, Marathi, Myanmar, Mã Lai, Mông Cổ, Na Uy, Nepal, Nga, Nhật, Odia (Oriya), Pashto, Pháp, Phát hiện ngôn ngữ, Phần Lan, Punjab, Quốc tế ngữ, Rumani, Samoa, Serbia, Sesotho, Shona, Sindhi, Sinhala, Slovak, Slovenia, Somali, Sunda, Swahili, Séc, Tajik, Tamil, Tatar, Telugu, Thái, Thổ Nhĩ Kỳ, Thụy Điển, Tiếng Indonesia, Tiếng Ý, Trung, Trung (Phồn thể), Turkmen, Tây Ban Nha, Ukraina, Urdu, Uyghur, Uzbek, Việt, Xứ Wales, Yiddish, Yoruba, Zulu, Đan Mạch, Đức, Ả Rập, dịch ngôn ngữ.

Copyright ©2024 I Love Translation. All reserved.

E-mail: