GVKun编程网logo

iOS 16 中 Siri 语音助手有哪些改进?(siri苹果的语音助手)

1

对于iOS16中Siri语音助手有哪些改进?感兴趣的读者,本文将提供您所需要的所有信息,我们将详细讲解siri苹果的语音助手,并且为您提供关于iOS-AppDelegate在Siri意图启动时不检索u

对于iOS 16 中 Siri 语音助手有哪些改进?感兴趣的读者,本文将提供您所需要的所有信息,我们将详细讲解siri苹果的语音助手,并且为您提供关于iOS - AppDelegate 在 Siri 意图启动时不检索 userActivity、iOS 10 和Xcode8 一起 创建 Siri 功能步骤详解(OC写的 )、iOS 13 中 Siri 有哪些改进?、iOS 13 教程:什么是 Siri 朗读消息?如何自定义信息提示?的宝贵知识。

本文目录一览:

iOS 16 中 Siri 语音助手有哪些改进?(siri苹果的语音助手)

iOS 16 中 Siri 语音助手有哪些改进?(siri苹果的语音助手)

在 iOS 16 及更新版本中,苹果优化了 Siri 使用快捷指令的流程,让用户可以更方便地使用 Siri 触发快捷指令操作。同时也优化了发送信息和通话的流程,支持更多离线指令处理能力。

1.自动发送信息:@H_301_4@

此前使用 Siri 发送信息时,为了避免操作失误,需要再次确认才能完成发送。现在用户可以在“设置”-“Siri 与搜索”中开启“自动发送信息”功能,开启后无需 Siri 在发送前再进行确认。

2.App 中的快捷指令@H_301_4@

许多应用中都有特定的 Siri 快捷功能。在 iOS 16 及更新版本中,下载应用后,无需额外将操作加入快捷指令中,可以直接让 Siri 允许相关指令操作。

如果你不知道应用中哪些 Siri 相关的指令,可以通过询问“嘿 Siri,这个能帮我做什么”,来探索 Siri 在 iOS 系统和应用中的功能。

3.让 Siri 帮忙挂电话@H_301_4@

如果遇到一些特殊情况,无法主动挂断电话或结束 FaceTime 通话,现在可以说声“嘿 Siri,挂电话”,即可将通话挂断。需要注意的是,对方也能听到这一句对话。

4.离线环境也能使用 Siri@H_301_4@

Siri 的离线处理请求能力得到了进一步提升,现在可以在离线环境下控制家具配件 HomeKit 或进行局域网内广播等。

iOS - AppDelegate 在 Siri 意图启动时不检索 userActivity

iOS - AppDelegate 在 Siri 意图启动时不检索 userActivity

如何解决iOS - AppDelegate 在 Siri 意图启动时不检索 userActivity

实际上是在 swiftUI 中制作一个应用程序并尝试处理 Siri 意图以在我的应用程序中开始呼叫。我在我的项目中创建了一个扩展目标,在主目标和扩展目标中添加了 Siri 功能和应用程序组,我的意图处理程序完全正确触发了 Siri 请求,启动 Siri 并要求拨打某些联系人的电话工作正常,我的应用程序启动并且此时应该从意图接收活动,但没有任何反应......

我的意图处理程序如下所示:

  1. import Intents
  2. class IntentHandler: INExtension,INStartCallIntentHandling {
  3. func handle(intent: INStartCallIntent,completion: @escaping (INStartCallIntentResponse) -> Void) {
  4. let userActivity = NSUserActivity(activityType: NsstringFromClass(INStartCallIntent.self))
  5. guard intent.contacts?.first?.personHandle?.value != nil else {
  6. completion(INStartCallIntentResponse(code: .failureContactNotSupportedByApp,userActivity: userActivity))
  7. return
  8. }
  9. let response = INStartCallIntentResponse(code: .continueInApp,userActivity: userActivity)
  10. completion(response)
  11. }
  12. func resolveContacts(for intent: INStartCallIntent,with completion: @escaping ([INStartCallContactResolutionResult]) -> Void) {
  13. var contactName = ""
  14. if let contacts = intent.contacts {
  15. contactName = contacts.first?.displayName ?? ""
  16. }
  17. //This shared method is used to get contact data for completion
  18. DataManager.sharedManager.findContact(contactName: contactName,with: {
  19. contacts in
  20. switch contacts.count {
  21. case 1: completion([.success(with: contacts.first ?? INPerson(personHandle: INPersonHandle(value: "1800-olakase",type: .phoneNumber),nameComponents: nil,displayName: "ola k ase",image: nil,contactIdentifier: nil,customIdentifier: INPersonHandle(value: "1800-olakase",type: .phoneNumber).value))])
  22. case 2...Int.max: completion([.disambiguation(with: contacts)])
  23. default: completion([.unsupported()])
  24. }
  25. })
  26. }
  27. func confirm(intent: INStartCallIntent,completion: @escaping (INStartCallIntentResponse) -> Void) {
  28. let userActivity = NSUserActivity(activityType: NsstringFromClass(INStartCallIntent.self))
  29. let response = INStartCallIntentResponse(code: .ready,userActivity: userActivity)
  30. completion(response)
  31. }
  32. }

INStartCallIntent 中将 IntentsSupported 添加到 Info.plist

因此,当 func handle(intent: INStartCallIntent,completion: @escaping (INStartCallIntentResponse) -> Void) 中的代码完成时,应该将 NSUserActivity 直接发送到我的应用程序委托给 func application(_ application: UIApplication,continue userActivity: NSUserActivity,restorationHandler: @escaping ([UIUserActivityRestoring]?) -> Void) -> Bool ...但不会触发该功能。目前,我的应用无法拨打新电话,因为没有获取任何 userActivity 来检索联系人数据。

我也尝试使用 func application(_ application: UIApplication,restorationHandler: @escaping ([Any]?) -> Void) -> Bool 但也不起作用。

为了更具体,我遵循这个 tutorial 但改变了 INStartAudioCallIntentINStartCallIntent 因为已弃用。我不知道 swiftUI 是否有问题,我使用 @UIApplicationDelegateAdaptor(AppDelegate.self) var appDelegate 将我的应用程序委托添加到 swiftUI life cicle

是的,我的应用已请求 Siri 授权并已启用。有什么建议吗?我错过了什么?

解决方法

好的,我想通了:问题是我试图从我的 AppDelegate 的方法 class MainWindow(QtWidgets.QMainWindow): def __init__(self,design_file=''Lab1_Main.ui''): super().__init__() uic.loadUi(design_file,self) self.printActions(self.menuBar()) def printActions(self,obj,indent=0): for action in obj.actions(): if action.isSeparator() and not action.text(): print(''\\t'' * indent + ''[separator]'') else: print(''\\t'' * indent + action.text()) if action.menu(): self.printActions(action.menu(),indent + 1) 中获取 NSUserActivity,但它永远不会被触发,忘记如果您正在使用 SwiftUI,请不要遵循 documentation from apple,因为它不再工作了。

对于 SwiftUI,您必须实现 func application(_ application: UIApplication,continue userActivity: NSUserActivity,restorationHandler: @escaping ([UIUserActivityRestoring]?) -> Void) -> Bool 修饰符来获取 .onContinueUserActivity(),从这里您可以做任何您需要做的事情。示例代码:

  1. NSUserActivity

iOS 10 和Xcode8 一起 创建 Siri 功能步骤详解(OC写的 )

iOS 10 和Xcode8 一起 创建 Siri 功能步骤详解(OC写的 )

iOS 10 出来之后,我们开发者也可以使用类似Siri的功能。。让我们来看看怎么使用吧,其实他是使用Siri里面的一个语音识别框架Speech framework。 让我们来看看 一些 主要的代码吧。 我们需要一个 UITextView 和 UIButton 就 能体现了。

第一步:定义属性

@interface ViewController () <SFSpeechRecognizerDelegate>
@property (strong, nonatomic) UIButton *siriBtu;
@property (strong, nonatomic) UITextView *siriTextView;
@property (strong, nonatomic) SFSpeechRecognitionTask *recognitionTask;
@property (strong, nonatomic)SFSpeechRecognizer *speechRecognizer;
@property (strong, nonatomic) SFSpeechAudioBufferRecognitionRequest *recognitionRequest;
@property (strong, nonatomic)AVAudioEngine *audioEngine;
@end

第二步:进行语音识别检测

- (void)viewDidLoad {
[super viewDidLoad];
NSLocale *cale = [[NSLocale alloc]initWithLocaleIdentifier:@"zh-CN"];
self.speechRecognizer = [[SFSpeechRecognizer alloc]initWithLocale:cale];
self.siriBtu.enabled = false;
_speechRecognizer.delegate = self;
[SFSpeechRecognizer requestAuthorization:^(SFSpeechRecognizerAuthorizationStatus status) {
bool isButtonEnabled = false;
switch (status) {
case SFSpeechRecognizerAuthorizationStatusAuthorized:
isButtonEnabled = true;
NSLog(@"可以语音识别");
break;
case SFSpeechRecognizerAuthorizationStatusDenied:
isButtonEnabled = false;
NSLog(@"用户被拒绝访问语音识别");
break;
case SFSpeechRecognizerAuthorizationStatusRestricted:
isButtonEnabled = false;
NSLog(@"不能在该设备上进行语音识别");
break;
case SFSpeechRecognizerAuthorizationStatusNotDetermined:
isButtonEnabled = false;
NSLog(@"没有授权语音识别");
break;
default:
break;
}
self.siriBtu.enabled = isButtonEnabled;
}];
self.audioEngine = [[AVAudioEngine alloc]init];
}

第三步:按钮的点击事件

- (void)microphoneTap:(UIButton *)sender {
if ([self.audioEngine isRunning]) {
[self.audioEngine stop];
[self.recognitionRequest endAudio];
self.siriBtu.enabled = YES;
[self.siriBtu setTitle:@"开始录制" forState:UIControlStateNormal];
}else{
[self startRecording];
[self.siriBtu setTitle:@"停止录制" forState:UIControlStateNormal];
}}

第四步 :开始录制语音,以及将语音转为文字

-(void)startRecording{
if (self.recognitionTask) {
[self.recognitionTask cancel];
self.recognitionTask = nil;
}
AVAudioSession *audioSession = [AVAudioSession sharedInstance];
bool audioBool = [audioSession setCategory:AVAudioSessionCategoryRecord error:nil];
bool audioBool1= [audioSession setMode:AVAudioSessionModeMeasurement error:nil];
bool audioBool2= [audioSession setActive:true withOptions:AVAudioSessionSetActiveOptionNotifyOthersOnDeactivation error:nil];
if (audioBool || audioBool1|| audioBool2) {
NSLog(@"可以使用");
}else{
NSLog(@"这里说明有的功能不支持");
}
self.recognitionRequest = [[SFSpeechAudioBufferRecognitionRequest alloc]init];
AVAudioInputNode *inputNode = self.audioEngine.inputNode;
SFSpeechAudioBufferRecognitionRequest *recognitionRequest;
self.recognitionRequest.shouldReportPartialResults = true;
self.recognitionTask = [self.speechRecognizer recognitionTaskWithRequest:self.recognitionRequest resultHandler:^(SFSpeechRecognitionResult * _Nullable result, NSError * _Nullable error) {
bool isFinal = false;
if (result) {
self.siriTextView.text = [[result bestTranscription] formattedString];
isFinal = [result isFinal];
}
if (error || isFinal) {
[self.audioEngine stop];
[inputNode removeTapOnBus:0];
self.recognitionRequest = nil;
self.recognitionTask = nil;
self.siriBtu.enabled = true;
}
}];
AVAudioFormat *recordingFormat = [inputNode outputFormatForBus:0];
[inputNode installTapOnBus:0 bufferSize:1024 format:recordingFormat block:^(AVAudioPCMBuffer * _Nonnull buffer, AVAudioTime * _Nonnull when) {
[self.recognitionRequest appendAudioPCMBuffer:buffer];
}];
[self.audioEngine prepare];
bool audioEngineBool = [self.audioEngine startAndReturnError:nil];
NSLog(@"%d",audioEngineBool);
self.siriTextView.text = @"我是小冰!Siri 冰,你说我听";
}

最后一个代理方法:

-(void)speechRecognizer:(SFSpeechRecognizer *)speechRecognizer availabilityDidChange:(BOOL)available{
if(available){
self.siriBtu.enabled = true;
}else{
self.siriBtu.enabled = false;
}
}

这样我们 就可以实现Siri的功能了。

总结

以上所述是小编给大家介绍的iOS 10 和Xcode8 一起 创建 Siri 功能步骤详解(OC写的 ),希望对大家有所帮助,如果大家有任何疑问请给我留言,小编会及时回复大家的。在此也非常感谢大家对网站的支持!

您可能感兴趣的文章:
  • iOS10 适配-Xcode8问题总结及解决方案
  • iOS10适配以及Xcode8使用需要注意的那些坑
  • 更新了Xcode8 及 iOS10遇到的问题小结
  • Xcode8以及iOS10适配等常见问题汇总(整理篇)

iOS 13 中 Siri 有哪些改进?

iOS 13 中 Siri 有哪些改进?

对于使用 iPhone 的小伙伴来说,平时让 Siri 帮忙定个闹钟、查询下天气还是很方便的。在全新的 iOS 13 当中,除了提升性能、加快应用启动等等一系列改进之外,苹果也对 Siri 语音助手功能进行了一些优化,一起来看看吧。

Siri 改善声音

在 iOS 13 中,Siri 的声音听起来会更加自然,特别是在说较长的语句时,语音完全由软件产生,不过目前似乎仅限于英语。

Siri 快捷指令

利用内置的快捷指令 app,Siri 能以更强大的方式与各种 app 配合使用。

快捷指令 app 现已内置于 iOS 13 系统中,可以将各种 app 中的快捷指令以及你自己创建的快捷指令全部集中于一处。快捷指令也更加口语化,你可以告诉 Siri“用美团外卖叫个餐”,Siri 便会为你调出以前曾订过外卖的餐厅列表,并列出你常点的菜。

HomePod 上的个人化体验

Siri 现在可以识别出不同人的声音,不同家庭成员在使用 HomePod 时,Siri 都能区分出他们的声音,从而为每个人提供个人化的体验。在收到音乐、信息和日历等方面的指令时,能够加以区别。你还能通过接力功能,将音乐、播客或电话从 iPhone 转移到 HomePod 上,无需中断。

Siri 可朗读信息、回复信息

在 iOS 13 当中,Siri 不仅可以读出通知、信息的详细内容,你还可以直接告诉它你想要回复什么,在信息发送前,Siri 还会朗读一遍进行确认,对于懒得打字、腾不开手的懒癌患者来说,非常方便。

当您在使用 AirPods 时,Siri 会自动朗读收到的新信息,你还可选择只收听某些联系人的信息。如果你正在接听电话或共享歌曲,Siri 还会知趣地懂得不来打搅你。

iOS 13 教程:什么是 Siri 朗读消息?如何自定义信息提示?

iOS 13 教程:什么是 Siri 朗读消息?如何自定义信息提示?

使用 Siri 朗读消息是 iOS 13 测试版中新加入的功能,可以在佩戴 AirPods 或 Powerbeats Pro 时快速响应消息,无需拿出手机,Siri 将自动朗读收到的消息并支持转录回复。

更新到 iOS 13 测试版后首次连接耳机时,手机自动弹出弹窗,询问是否启用 Siri 朗读消息。如果没有接收到弹窗提示或需要更改设置,可前往 iPhone「设置」启用 Siri 朗读信息。

● 前往「设置」;

● 下划查找轻触「通知」;

● 选择「Siri 朗读消息」;

● 选择开启可以启用,关闭开关以禁用。

启用后,佩戴 AirPods 时收到信息,将在短暂的铃声提醒后通过 Siri 朗读信息的文本,然后在响铃信号后可以通过语音进行回复,Siri 语音转录为文本并将其回复联系人继续对话。

关于iOS 16 中 Siri 语音助手有哪些改进?siri苹果的语音助手的介绍现已完结,谢谢您的耐心阅读,如果想了解更多关于iOS - AppDelegate 在 Siri 意图启动时不检索 userActivity、iOS 10 和Xcode8 一起 创建 Siri 功能步骤详解(OC写的 )、iOS 13 中 Siri 有哪些改进?、iOS 13 教程:什么是 Siri 朗读消息?如何自定义信息提示?的相关知识,请在本站寻找。

本文标签: