攝影機裝置類型是透過兩種特徵實作:
PushAvStreamTransportTrait
,可使用推送式通訊協定處理音訊和影片串流傳輸;
WebRtcLiveViewTrait
,可控制即時影像串流和對講功能。
如果實作項目具備攝影機功能,門鈴裝置類型也會使用這些特徵。
Home API 裝置類型 | 特徵 | Swift 範例應用程式 | 用途 |
---|---|---|---|
相機
可拍攝靜態圖像或影片的裝置。攝影機可能提供可存取的即時串流、雙向通話或偵測事件。 |
必要特徵 google PushAvStreamTransportTrait google WebRtcLiveViewTrait |
相機 | |
門鈴
門外的按鈕啟動裝置後,會發出聲音和/或視覺信號,用於引起門另一側人員的注意。門鈴可能提供無障礙直播、雙向通話或偵測事件。 |
必要特徵 google PushAvStreamTransportTrait google WebRtcLiveViewTrait |
門鈴 |
開始直播
如要開始直播,請將工作階段描述通訊協定 (SDP) 字串傳送至 WebRtcLiveViewTrait
特徵的 startLiveView(offerSdp:)
方法,該方法會傳回三個值:
- 工作階段的 SDP。
- 工作階段時間長度 (以秒為單位)。
- 工作階段 ID,可用於延長或終止工作階段。
public func sendOffer(offerSdp: String) async throws
-> (answerSdp: String, mediaSessionId: String, liveViewDuration: TimeInterval)
{
do {
Logger.info("Sending StartLiveView command...")
let response = try await liveViewTrait.startLiveView(
offerSdp: offerSdp
)
Logger.info("Received StartLiveView response: \(response)")
return (
answerSdp: response.answerSdp,
mediaSessionId: response.mediaSessionId,
liveViewDuration: TimeInterval(response.liveSessionDurationSeconds)
)
} catch {
Logger.error("Failed to send StartLiveView command: \(error)")
throw error
}
}
延長直播時間
直播有預設時長,時間一到就會過期。如要延長有效串流的時長,請使用 extendLiveView(mediaSessionId:optionalArgsProvider:)
方法發出延長要求:
public func extendLiveView(mediaSessionId: String) async throws {
do {
Logger.info("Extending live view...")
let extendedDuration = try await liveViewTrait.extendLiveView(mediaSessionId: mediaSessionId)
Logger.info("Extended live view for \(extendedDuration.liveSessionDurationSeconds) seconds.")
} catch {
Logger.error("Failed to extend live view: \(error)")
throw error
}
}
啟用及停用錄製功能
如要啟用攝影機的錄影功能,請將
TransportStatusEnum.Active
傳遞至
PushAvStreamTransportTrait
特徵的
setTransportStatus(transportStatus:optionalArgsProvider:)
方法。如要停用錄製功能,請傳遞 TransportStatusEnum.Inactive
。
在以下範例中,我們將這些呼叫包裝在單一呼叫中,並使用 Boolean
切換錄音功能:
public func toggleIsRecording(isOn: Bool) {
self.uiState = .loading
guard let pushAvStreamTransportTrait else {
Logger.error("PushAvStreamTransportTrait not found.")
return
}
Task {
do {
Logger.debug("Toggling onOff to \(isOn ? "ON" : "OFF")...")
try await pushAvStreamTransportTrait.setTransportStatus(
transportStatus: isOn ? .active : .inactive)
if isOn {
do {
self.player = try self.createWebRtcPlayer()
} catch {
Logger.error("Failed to initialize WebRtcPlayer: \(error)")
self.uiState = .disconnected
return
}
await self.player?.initialize()
self.uiState = .live
} else {
self.player = nil
self.uiState = .off
}
} catch {
Logger.error("Failed to toggle onOff: \(error)")
}
}
}
確認是否已啟用錄製功能
如要判斷攝影機是否已啟用錄影功能,請檢查是否有任何連線處於啟用狀態。以下範例定義了兩個函式來執行這項操作:
public func isDeviceRecording() -> Bool {
guard let pushAvStreamTransportTrait else {
Logger.error("PushAvStreamTransportTrait not found.")
return false
}
guard
let hasActiveConnection =
pushAvStreamTransportTrait
.attributes
.currentConnections?
.contains(where: { $0.transportStatus == .active })
else {
return false
}
return hasActiveConnection
}
啟動及停止 TalkBack
如要啟動 TalkBack,請呼叫 WebRtcLiveViewTrait
特徵的 startTalkback(mediaSessionId:optionalArgsProvider:)
方法。如要停止,請使用 stopTalkback(mediaSessionId:)
。
public func toggleTwoWayTalk(isOn: Bool, mediaSessionId: String) async throws {
do {
Logger.info("Toggling twoWayTalk to \(isOn ? "ON" : "OFF")...")
if isOn {
try await liveViewTrait.startTalkback(mediaSessionId: mediaSessionId)
} else {
try await liveViewTrait.stopTalkback(mediaSessionId: mediaSessionId)
}
} catch {
throw HomeError.commandFailed("Failed to toggle twoWayTalk: \(error)")
}
}