subgradient optimization ของ convex function ที่มีบางส่วนของ Objective function เป็น nondifferentiable หักศอก
อยากทราบว่าต่างจาก gradient descent อย่างไร?
สมมุติว่า f(x) = some_convex_function_of_x_โดยมีหักศอกบางส่วน
- เข้าใจว่า ที่ x' เป็นสมาชิกของ {domain ของ objective function ที่ differentiable}, subgradient ของ f(x) ก็คือ df/dx เหมือนกับ gradient descent ใช่หรือไม่ครับ?
- สงสัยว่าเข้าใจว่า ที่ x" เป็นสมาชิกของ {domain ของ objective function ที่ nondiffernetiable} subgradient จะมีค่าอย่างไร? เท่ากับ0หรือไม่? หรือไม่ define? ถ้าเราต้องคำนวน Gradient descent ที่ตำแหน่งx" เราจะทำอย่างไร?
subgradient ต่างจาก gradient descent บน convex function ที่มีบางส่วน nondifferntiable อย่างไร
อยากทราบว่าต่างจาก gradient descent อย่างไร?
สมมุติว่า f(x) = some_convex_function_of_x_โดยมีหักศอกบางส่วน
- เข้าใจว่า ที่ x' เป็นสมาชิกของ {domain ของ objective function ที่ differentiable}, subgradient ของ f(x) ก็คือ df/dx เหมือนกับ gradient descent ใช่หรือไม่ครับ?
- สงสัยว่าเข้าใจว่า ที่ x" เป็นสมาชิกของ {domain ของ objective function ที่ nondiffernetiable} subgradient จะมีค่าอย่างไร? เท่ากับ0หรือไม่? หรือไม่ define? ถ้าเราต้องคำนวน Gradient descent ที่ตำแหน่งx" เราจะทำอย่างไร?