对于iOS16中Siri语音助手有哪些改进?感兴趣的读者,本文将提供您所需要的所有信息,我们将详细讲解siri苹果的语音助手,并且为您提供关于iOS-AppDelegate在Siri意图启动时不检索u
对于iOS 16 中 Siri 语音助手有哪些改进?感兴趣的读者,本文将提供您所需要的所有信息,我们将详细讲解siri苹果的语音助手,并且为您提供关于iOS - AppDelegate 在 Siri 意图启动时不检索 userActivity、iOS 10 和Xcode8 一起 创建 Siri 功能步骤详解(OC写的 )、iOS 13 中 Siri 有哪些改进?、iOS 13 教程:什么是 Siri 朗读消息?如何自定义信息提示?的宝贵知识。
本文目录一览:- iOS 16 中 Siri 语音助手有哪些改进?(siri苹果的语音助手)
- iOS - AppDelegate 在 Siri 意图启动时不检索 userActivity
- iOS 10 和Xcode8 一起 创建 Siri 功能步骤详解(OC写的 )
- iOS 13 中 Siri 有哪些改进?
- iOS 13 教程:什么是 Siri 朗读消息?如何自定义信息提示?
iOS 16 中 Siri 语音助手有哪些改进?(siri苹果的语音助手)
在 iOS 16 及更新版本中,苹果优化了 Siri 使用快捷指令的流程,让用户可以更方便地使用 Siri 触发快捷指令操作。同时也优化了发送信息和通话的流程,支持更多离线指令处理能力。
1.自动发送信息:@H_301_4@
此前使用 Siri 发送信息时,为了避免操作失误,需要再次确认才能完成发送。现在用户可以在“设置”-“Siri 与搜索”中开启“自动发送信息”功能,开启后无需 Siri 在发送前再进行确认。
2.App 中的快捷指令@H_301_4@
许多应用中都有特定的 Siri 快捷功能。在 iOS 16 及更新版本中,下载应用后,无需额外将操作加入快捷指令中,可以直接让 Siri 允许相关指令操作。
如果你不知道应用中哪些 Siri 相关的指令,可以通过询问“嘿 Siri,这个能帮我做什么”,来探索 Siri 在 iOS 系统和应用中的功能。
3.让 Siri 帮忙挂电话@H_301_4@
如果遇到一些特殊情况,无法主动挂断电话或结束 FaceTime 通话,现在可以说声“嘿 Siri,挂电话”,即可将通话挂断。需要注意的是,对方也能听到这一句对话。
4.离线环境也能使用 Siri@H_301_4@
Siri 的离线处理请求能力得到了进一步提升,现在可以在离线环境下控制家具配件 HomeKit 或进行局域网内广播等。
iOS - AppDelegate 在 Siri 意图启动时不检索 userActivity
如何解决iOS - AppDelegate 在 Siri 意图启动时不检索 userActivity
实际上是在 swiftUI 中制作一个应用程序并尝试处理 Siri 意图以在我的应用程序中开始呼叫。我在我的项目中创建了一个扩展目标,在主目标和扩展目标中添加了 Siri 功能和应用程序组,我的意图处理程序完全正确触发了 Siri 请求,启动 Siri 并要求拨打某些联系人的电话工作正常,我的应用程序启动并且此时应该从意图接收活动,但没有任何反应......
我的意图处理程序如下所示:
import Intents
class IntentHandler: INExtension,INStartCallIntentHandling {
func handle(intent: INStartCallIntent,completion: @escaping (INStartCallIntentResponse) -> Void) {
let userActivity = NSUserActivity(activityType: NsstringFromClass(INStartCallIntent.self))
guard intent.contacts?.first?.personHandle?.value != nil else {
completion(INStartCallIntentResponse(code: .failureContactNotSupportedByApp,userActivity: userActivity))
return
}
let response = INStartCallIntentResponse(code: .continueInApp,userActivity: userActivity)
completion(response)
}
func resolveContacts(for intent: INStartCallIntent,with completion: @escaping ([INStartCallContactResolutionResult]) -> Void) {
var contactName = ""
if let contacts = intent.contacts {
contactName = contacts.first?.displayName ?? ""
}
//This shared method is used to get contact data for completion
DataManager.sharedManager.findContact(contactName: contactName,with: {
contacts in
switch contacts.count {
case 1: completion([.success(with: contacts.first ?? INPerson(personHandle: INPersonHandle(value: "1800-olakase",type: .phoneNumber),nameComponents: nil,displayName: "ola k ase",image: nil,contactIdentifier: nil,customIdentifier: INPersonHandle(value: "1800-olakase",type: .phoneNumber).value))])
case 2...Int.max: completion([.disambiguation(with: contacts)])
default: completion([.unsupported()])
}
})
}
func confirm(intent: INStartCallIntent,completion: @escaping (INStartCallIntentResponse) -> Void) {
let userActivity = NSUserActivity(activityType: NsstringFromClass(INStartCallIntent.self))
let response = INStartCallIntentResponse(code: .ready,userActivity: userActivity)
completion(response)
}
}
在 INStartCallIntent
中将 IntentsSupported
添加到 Info.plist
因此,当 func handle(intent: INStartCallIntent,completion: @escaping (INStartCallIntentResponse) -> Void)
中的代码完成时,应该将 NSUserActivity
直接发送到我的应用程序委托给 func application(_ application: UIApplication,continue userActivity: NSUserActivity,restorationHandler: @escaping ([UIUserActivityRestoring]?) -> Void) -> Bool
...但不会触发该功能。目前,我的应用无法拨打新电话,因为没有获取任何 userActivity
来检索联系人数据。
我也尝试使用 func application(_ application: UIApplication,restorationHandler: @escaping ([Any]?) -> Void) -> Bool
但也不起作用。
为了更具体,我遵循这个 tutorial 但改变了
INStartAudioCallIntent
为 INStartCallIntent
因为已弃用。我不知道 swiftUI 是否有问题,我使用 @UIApplicationDelegateAdaptor(AppDelegate.self) var appDelegate
将我的应用程序委托添加到 swiftUI life cicle
是的,我的应用已请求 Siri 授权并已启用。有什么建议吗?我错过了什么?
解决方法
好的,我想通了:问题是我试图从我的 AppDelegate 的方法 class MainWindow(QtWidgets.QMainWindow):
def __init__(self,design_file=''Lab1_Main.ui''):
super().__init__()
uic.loadUi(design_file,self)
self.printActions(self.menuBar())
def printActions(self,obj,indent=0):
for action in obj.actions():
if action.isSeparator() and not action.text():
print(''\\t'' * indent + ''[separator]'')
else:
print(''\\t'' * indent + action.text())
if action.menu():
self.printActions(action.menu(),indent + 1)
中获取 NSUserActivity
,但它永远不会被触发,忘记如果您正在使用 SwiftUI,请不要遵循 documentation from apple,因为它不再工作了。
对于 SwiftUI,您必须实现 func application(_ application: UIApplication,continue userActivity: NSUserActivity,restorationHandler: @escaping ([UIUserActivityRestoring]?) -> Void) -> Bool
修饰符来获取 .onContinueUserActivity()
,从这里您可以做任何您需要做的事情。示例代码:
NSUserActivity
iOS 10 和Xcode8 一起 创建 Siri 功能步骤详解(OC写的 )
iOS 10 出来之后,我们开发者也可以使用类似Siri的功能。。让我们来看看怎么使用吧,其实他是使用Siri里面的一个语音识别框架Speech framework。 让我们来看看 一些 主要的代码吧。 我们需要一个 UITextView 和 UIButton 就 能体现了。
第一步:定义属性
@interface ViewController () <SFSpeechRecognizerDelegate> @property (strong, nonatomic) UIButton *siriBtu; @property (strong, nonatomic) UITextView *siriTextView; @property (strong, nonatomic) SFSpeechRecognitionTask *recognitionTask; @property (strong, nonatomic)SFSpeechRecognizer *speechRecognizer; @property (strong, nonatomic) SFSpeechAudioBufferRecognitionRequest *recognitionRequest; @property (strong, nonatomic)AVAudioEngine *audioEngine; @end
第二步:进行语音识别检测
- (void)viewDidLoad { [super viewDidLoad]; NSLocale *cale = [[NSLocale alloc]initWithLocaleIdentifier:@"zh-CN"]; self.speechRecognizer = [[SFSpeechRecognizer alloc]initWithLocale:cale]; self.siriBtu.enabled = false; _speechRecognizer.delegate = self; [SFSpeechRecognizer requestAuthorization:^(SFSpeechRecognizerAuthorizationStatus status) { bool isButtonEnabled = false; switch (status) { case SFSpeechRecognizerAuthorizationStatusAuthorized: isButtonEnabled = true; NSLog(@"可以语音识别"); break; case SFSpeechRecognizerAuthorizationStatusDenied: isButtonEnabled = false; NSLog(@"用户被拒绝访问语音识别"); break; case SFSpeechRecognizerAuthorizationStatusRestricted: isButtonEnabled = false; NSLog(@"不能在该设备上进行语音识别"); break; case SFSpeechRecognizerAuthorizationStatusNotDetermined: isButtonEnabled = false; NSLog(@"没有授权语音识别"); break; default: break; } self.siriBtu.enabled = isButtonEnabled; }]; self.audioEngine = [[AVAudioEngine alloc]init]; }
第三步:按钮的点击事件
- (void)microphoneTap:(UIButton *)sender { if ([self.audioEngine isRunning]) { [self.audioEngine stop]; [self.recognitionRequest endAudio]; self.siriBtu.enabled = YES; [self.siriBtu setTitle:@"开始录制" forState:UIControlStateNormal]; }else{ [self startRecording]; [self.siriBtu setTitle:@"停止录制" forState:UIControlStateNormal]; }}
第四步 :开始录制语音,以及将语音转为文字
-(void)startRecording{ if (self.recognitionTask) { [self.recognitionTask cancel]; self.recognitionTask = nil; } AVAudioSession *audioSession = [AVAudioSession sharedInstance]; bool audioBool = [audioSession setCategory:AVAudioSessionCategoryRecord error:nil]; bool audioBool1= [audioSession setMode:AVAudioSessionModeMeasurement error:nil]; bool audioBool2= [audioSession setActive:true withOptions:AVAudioSessionSetActiveOptionNotifyOthersOnDeactivation error:nil]; if (audioBool || audioBool1|| audioBool2) { NSLog(@"可以使用"); }else{ NSLog(@"这里说明有的功能不支持"); } self.recognitionRequest = [[SFSpeechAudioBufferRecognitionRequest alloc]init]; AVAudioInputNode *inputNode = self.audioEngine.inputNode; SFSpeechAudioBufferRecognitionRequest *recognitionRequest; self.recognitionRequest.shouldReportPartialResults = true; self.recognitionTask = [self.speechRecognizer recognitionTaskWithRequest:self.recognitionRequest resultHandler:^(SFSpeechRecognitionResult * _Nullable result, NSError * _Nullable error) { bool isFinal = false; if (result) { self.siriTextView.text = [[result bestTranscription] formattedString]; isFinal = [result isFinal]; } if (error || isFinal) { [self.audioEngine stop]; [inputNode removeTapOnBus:0]; self.recognitionRequest = nil; self.recognitionTask = nil; self.siriBtu.enabled = true; } }]; AVAudioFormat *recordingFormat = [inputNode outputFormatForBus:0]; [inputNode installTapOnBus:0 bufferSize:1024 format:recordingFormat block:^(AVAudioPCMBuffer * _Nonnull buffer, AVAudioTime * _Nonnull when) { [self.recognitionRequest appendAudioPCMBuffer:buffer]; }]; [self.audioEngine prepare]; bool audioEngineBool = [self.audioEngine startAndReturnError:nil]; NSLog(@"%d",audioEngineBool); self.siriTextView.text = @"我是小冰!Siri 冰,你说我听"; }
最后一个代理方法:
-(void)speechRecognizer:(SFSpeechRecognizer *)speechRecognizer availabilityDidChange:(BOOL)available{ if(available){ self.siriBtu.enabled = true; }else{ self.siriBtu.enabled = false; } }
这样我们 就可以实现Siri的功能了。
总结
以上所述是小编给大家介绍的iOS 10 和Xcode8 一起 创建 Siri 功能步骤详解(OC写的 ),希望对大家有所帮助,如果大家有任何疑问请给我留言,小编会及时回复大家的。在此也非常感谢大家对网站的支持!
- iOS10 适配-Xcode8问题总结及解决方案
- iOS10适配以及Xcode8使用需要注意的那些坑
- 更新了Xcode8 及 iOS10遇到的问题小结
- Xcode8以及iOS10适配等常见问题汇总(整理篇)
iOS 13 中 Siri 有哪些改进?
对于使用 iPhone 的小伙伴来说,平时让 Siri 帮忙定个闹钟、查询下天气还是很方便的。在全新的 iOS 13 当中,除了提升性能、加快应用启动等等一系列改进之外,苹果也对 Siri 语音助手功能进行了一些优化,一起来看看吧。
Siri 改善声音
在 iOS 13 中,Siri 的声音听起来会更加自然,特别是在说较长的语句时,语音完全由软件产生,不过目前似乎仅限于英语。
Siri 快捷指令
利用内置的快捷指令 app,Siri 能以更强大的方式与各种 app 配合使用。
快捷指令 app 现已内置于 iOS 13 系统中,可以将各种 app 中的快捷指令以及你自己创建的快捷指令全部集中于一处。快捷指令也更加口语化,你可以告诉 Siri“用美团外卖叫个餐”,Siri 便会为你调出以前曾订过外卖的餐厅列表,并列出你常点的菜。
HomePod 上的个人化体验
Siri 现在可以识别出不同人的声音,不同家庭成员在使用 HomePod 时,Siri 都能区分出他们的声音,从而为每个人提供个人化的体验。在收到音乐、信息和日历等方面的指令时,能够加以区别。你还能通过接力功能,将音乐、播客或电话从 iPhone 转移到 HomePod 上,无需中断。在 iOS 13 当中,Siri 不仅可以读出通知、信息的详细内容,你还可以直接告诉它你想要回复什么,在信息发送前,Siri 还会朗读一遍进行确认,对于懒得打字、腾不开手的懒癌患者来说,非常方便。
当您在使用 AirPods 时,Siri 会自动朗读收到的新信息,你还可选择只收听某些联系人的信息。如果你正在接听电话或共享歌曲,Siri 还会知趣地懂得不来打搅你。
iOS 13 教程:什么是 Siri 朗读消息?如何自定义信息提示?
使用 Siri 朗读消息是 iOS 13 测试版中新加入的功能,可以在佩戴 AirPods 或 Powerbeats Pro 时快速响应消息,无需拿出手机,Siri 将自动朗读收到的消息并支持转录回复。
更新到 iOS 13 测试版后首次连接耳机时,手机自动弹出弹窗,询问是否启用 Siri 朗读消息。如果没有接收到弹窗提示或需要更改设置,可前往 iPhone「设置」启用 Siri 朗读信息。
● 前往「设置」;
● 下划查找轻触「通知」;
● 选择「Siri 朗读消息」;
● 选择开启可以启用,关闭开关以禁用。
启用后,佩戴 AirPods 时收到信息,将在短暂的铃声提醒后通过 Siri 朗读信息的文本,然后在响铃信号后可以通过语音进行回复,Siri 语音转录为文本并将其回复联系人继续对话。
关于iOS 16 中 Siri 语音助手有哪些改进?和siri苹果的语音助手的介绍现已完结,谢谢您的耐心阅读,如果想了解更多关于iOS - AppDelegate 在 Siri 意图启动时不检索 userActivity、iOS 10 和Xcode8 一起 创建 Siri 功能步骤详解(OC写的 )、iOS 13 中 Siri 有哪些改进?、iOS 13 教程:什么是 Siri 朗读消息?如何自定义信息提示?的相关知识,请在本站寻找。
本文标签: