单词

推荐一个纠正英语口语发音的神器

…衆ロ難τιáo~ 提交于 2020-02-25 12:53:50
1 Youglish搜索引擎 今天推荐的YouGlish整合网络影片让使用者查询某个单词或某段话如何发音,这些影片就是从YouTube而来,YouGlish通过抓取、分析影片资料建立出搜寻引擎,使用者输入单词后就马上跳出相关段落的影片,直接提供你包括上下文的真实发音方式。 不同于一般翻译工具例如Google翻译的语音功能,YouGlish发音来自YouTube影片,而且包含上下段落,可以放慢播放速度或反复聆听,当然在发音上也会更贴近真实。YouGlish目前已经收录超过3000万支影片,除了支援英文外也可查法语、西班牙语、义大利文、葡萄牙语、德文和中文。 2 使用教学 2.1 开启YouGlish网站后会看到一个搜索框和说明,这项服务目标是使用YouTube改善使用者的英文发音,当前收录三千万个影片段落,为你提供快速、中立客观的答案,因为这些发音都是来自真人真实情境。 从搜寻框旁边可选择不同语言,或是搜寻时只显示特定的语音内容。 2.2 搜寻某个单词后YouGlish会给出搜寻的所有结果,例如我在搜寻时找到2657个影片,这个服务的运作方式大致是这样的:播放包含这个单词的影片段落,并且会包含前五秒或是上一段话,如此一来就能知道这个单词在一段句 大专栏 推荐一个纠正英语口语发音的神器 子中会如何发音。 影片下方会有字幕,让使用者在聆听时可以一边对照。YouGlish

[转载]ORB-SLAM中BOW特征匹配

两盒软妹~` 提交于 2020-02-24 14:03:15
原文链接,保存下来学习 其中的一点补充 其实处理非常简单, 在已经获得图像特征点集合的基础上, 再根据词典, 对每个特征做一次分类. 再对第二幅图像提取特征, 然后也根据词典, 也对这幅图像的所有特征进行分类. 用分类后的特征类别代替原本的特征descriptor, 即用一个数字代替一个向量进行比对, 显然速度可以大大提升. 也就是说之前用若干个ORB特征点代表一副图像,根据词典, 对每个特征做一次分类之后,是用若干个单词代表一副图像(一个单词包含数个相似的特征点)。 将两幅图像分别用a和b个单词代表之后,在单词的基础上进行匹配。之后在任意一对匹配好的单词中做ORB特征点匹配,对所有相互匹配的单词对中进行ORB特征点匹配之后就完成了整副图像的ORB特征点匹配。 这样做相对于暴力匹配减少了计算量。 来源: CSDN 作者: stephen_ojbk 链接: https://blog.csdn.net/m0_46345373/article/details/104473797

如何正确记忆单词

白昼怎懂夜的黑 提交于 2020-02-24 14:00:42
在教5-6分的 雅思 学生过程中,最常听到的就是,"老师,我的词汇量太少了“。每个人都知道要背单词,但是很多人表面上背了很多单词,根本不会用,不会造句子,而且没有意识要用到自己的写作里,没有意识用到自己的口语练习中,自然背的多,忘得多,背的越多,错的越多。   对于那些近期要参加考试的学生,好的建议就是自己尽量少造句子,少试图表达自己复杂的中文,把思路简单化,条理写清楚,多用一些英语的句式,原本可能会用 in fact, 换成 it is a fact that ...把自己的简单句套用一个主语从句的句型或者其他句式,准确无误地表达出来就可以了。当然,句与句之间,要有意识地添加一些关联词,这样逻辑更加清楚。词汇量小的学生一样可以拿到比较理想的分数。   对于那些不着急近期考试的学生,可以花个几个月,把一些雅思中重要的词汇,从头学习一遍。从查字典开始做起。大家都有金山词霸,金山词霸中有两本字典,比较适合背单词,”美国传统英语词典“和 ”柯林斯英语大词典“。这两本字典的选词,和例句比较实用,柯林斯的强项是提供,浅显的近义词或者同义词。   举个例子来说, 在做阅读的时候,经常会遇到一个单词contribute, 如果这单词不懂/或者不会造句子的话, 需要查一下字典。   其中一个意思就是捐钱、捐物(根据英文的解释等于make a contribution,), 然后给的例词是

适合初步练习PAT乙级——(1009) 说反话2

本秂侑毒 提交于 2020-02-20 11:38:52
标题适合初步练习PAT乙级——(1009) 说反话2 给定一句英语,要求你编写程序,将句中所有单词的顺序颠倒输出。 输入格式: 测试输入包含一个测试用例,在一行内给出总长度不超过 80 的字符串。字符串由若干单词和若干空格组成,其中单词是由英文字母(大小写有区分)组成的字符串,单词之间用 1 个空格分开,输入保证句子末尾没有多余的空格。 输出格式: 每个测试用例的输出占一行,输出倒序后的句子。 输入样例: Hello World Here I Come 输出样例: Come I Here World Hello # include <iostream> # include <string> using namespace std ; int main ( ) { string s ; getline ( cin , s ) ; while ( s . length ( ) > 0 ) { int i = s . rfind ( ' ' ) ; //从字符串的右边开始查找 if ( i != string :: npos ) { cout << s . substr ( i + 1 ) << " " ; string temp = s . substr ( 0 , i ) ; //从下标0开始取长度为i个字符 s = temp ; } else { cout << s << endl

zzulioj1133(单词个数)

折月煮酒 提交于 2020-02-19 12:09:19
题目描述 从键盘输入一行字符,长度小于1000。统计其中单词的个数,各单词以空格分隔,且空格数可以是多个。 输入 输入只有一行句子。仅有空格和英文字母构成 输出 单词的个数 样例输入 stable marriage problem Consists of Matching members 样例输出 7 # include <stdio.h> int main ( ) { char str [ 1000 ] ; int count = 0 ; gets ( str ) ; if ( str [ 0 ] != ' ' ) { count ++ ; //第一个单词 } for ( int i = 1 ; str [ i ] != '\0' ; i ++ ) { if ( str [ i - 1 ] == ' ' && str [ i ] != ' ' ) { //空格+字母的组合确定下一个单词 count ++ ; } } printf ( "%d\n" , count ) ; } 来源: CSDN 作者: m0_0.o 链接: https://blog.csdn.net/m0_46238735/article/details/104388004

OJ2679【基础】简单单词接龙

僤鯓⒐⒋嵵緔 提交于 2020-02-19 06:08:14
题目传送门: http://oj.jzxx.net/problem.php?id=2679 解题思路: 这道是比较简单的单词接龙,和普及组的那道真题相比,规则更少。我的思路是:用深搜,每次记录当前的单词下标,和龙的长度。另外用 vis数组记录这个单词是否已经用过。每次更新最长的长度。 注意:单词接龙的时候的单词顺序可以和原先的单词顺序不一样,只要求第一个单词是龙头即可。 AC代码: //oj2679基础简单单词接龙 #include <bits/stdc++.h> using namespace std; int ans=0, n; string a[50+5]; int vis[50+5]; void dfs(int i, int len){//i当前到第几个数,len当前龙的长度 ans=max(len, ans); for(int j=1; j<=n; j++){ if(a[j][0]==a[i][a[i].size()-1] && vis[j]==0){ vis[j]=1; dfs(j, len+1); vis[j]=0; } } } int main(){ cin>>n; for(int i=1;i<=n;i++) cin>>a[i]; vis[1]=1; dfs(1, 1); cout<<ans<<endl; } 看来题意理解是灰常重要的,我在题目理解上不正确

Java不同单词个数统计

不想你离开。 提交于 2020-02-18 18:38:07
描述 编写一个程序,输入一个句子,然后统计出这个句子当中不同的单词个数。例如:对于句子“one little two little three little boys”,总共有5个不同的单词:one, little, two, three, boys。 说明:(1)输入的句子当中只包含英文字符和空格,单词之间用一个空格隔开;(2)不用考虑单词的大小写,假设输入的都是小写字符;(3)句子长度不超过100个字符。 输入 输入只有一行,即一个英文句子。 输出 输出只有一行,是一个整数,表示句子中不同单词的个数。 难度 入门 输入示例 one little two little three little boys 输出示例 5 完成代码: 1 import java.util.Scanner; 2 3 public class Demo01{ 4 public static void main(String[] args) { 5 Scanner sc = new Scanner(System.in); 6 int n=0; //n统计有多少个不同单词,a保存单词,b判断是否有重复单词,设当b=1表示为重复单词 7 String str=sc.nextLine(); 8 String[] a=str.split(" "); 9 int[] b=new int[a.length]; 10

sdut 字典树

时光总嘲笑我的痴心妄想 提交于 2020-02-17 19:11:22
字典树 Description 遇到单词不认识怎么办? 查字典啊,已知字典中有n个单词,假设单词都是由小写字母组成。现有m个不认识的单词,询问这m个单词是否出现在字典中。 Input 含有多组测试用例。 第一行输入n,m (n>=0&&n<=100000&&m>=0&&m<=100000)分别是字典中存在的n个单词和要查询的m个单词. 紧跟着n行,代表字典中存在的单词。 然后m行,要查询的m个单词 n=0&&m=0 程序结束 数据保证所有的单词都是有小写字母组成,并且长度不超过10 Output 若存在则输出Yes,不存在输出No . Sample Input 3 2 aab aa ad ac ad 0 0 Output No Yes 等有空再补充链表的做法 #include <bits/stdc++.h> using namespace std; char s[20]; int trie[500010][26]; //数组开的很玄学,大一点TLE小一点RTE int cc[500010]; //用来证明单词存在 int f = 1; void in_sert(){ int k = strlen(s); int p = 0; for(int i = 0; i<k; i++){ int c = s[i] - 'a'; if(!trie[p][c]){ memset(trie[f],

【leetcode 139】单词拆分

吃可爱长大的小学妹 提交于 2020-02-17 01:37:46
给定一个非空字符串 s 和一个包含非空单词列表的字典 wordDict,判定 s 是否可以被空格拆分为一个或多个在字典中出现的单词。 说明: 拆分时可以重复使用字典中的单词。 你可以假设字典中没有重复的单词。 示例 1: 输入: s = “leetcode”, wordDict = [“leet”, “code”] 输出: true 解释: 返回 true 因为 “leetcode” 可以被拆分成 “leet code”。 示例 2: 输入: s = “applepenapple”, wordDict = [“apple”, “pen”] 输出: true 解释: 返回 true 因为 “applepenapple” 可以被拆分成 “apple pen apple”。 注意你可以重复使用字典中的单词。 示例 3: 输入: s = “catsandog”, wordDict = [“cats”, “dog”, “sand”, “and”, “cat”] 输出: false 分析: 这个题的题意是 字典中的单词是否可以拼成s字符串,字典中单词可重复使用。这也就是说我们s字符串分割之后,所有的单词都必须在字典里可以找得到,但字典里的单词不一定全部都用得上。 用一个boolean类型的数组flags来记录 字符串某个位置前,是否可以由字典里的某些单词拼成。 初始flags[0]=true

注意力机制概念和框架

*爱你&永不变心* 提交于 2020-02-16 20:49:19
注意力机制概念 在之前学习encoder-decoder模型时,我们了解了模型的原理是,输入source(要翻译的语句),由encoder先将句子编码成隐藏的语义编码C,再输入进decoder中。但是我们看到目标句子Target中每个单词的生成过程如下: f是decoder的非线性变化函数。从这里可以看出,在生成目标句子的单词时,不论生成哪个单词,它们使用的输入句子Source的语义编码C都是一样的,没有任何区别。而语义编码C是由句子Source的每个单词经过Encoder 编码产生的,这意味着不论是生成哪个单词,y1,y2还是y3,其实句子Source中任意单词对生成某个目标单词yi来说影响力都是相同的,这是为何说这个模型没有体现出注意力的缘由。这类似于人类看到眼前的画面,但是眼中却没有注意焦点一样。 如果拿机器翻译来解释这个分心模型的Encoder-Decoder框架更好理解,比如输入的是英文句子:Tom chase Jerry,Encoder-Decoder框架逐步生成中文单词:“汤姆”,“追逐”,“杰瑞”。 在翻译“杰瑞”这个中文单词的时候,分心模型里面的每个英文单词对于翻译目标单词“杰瑞”贡献是相同的,很明显这里不太合理,显然“Jerry”对于翻译成“杰瑞”更重要,但是分心模型是无法体现这一点的 ,这就是为何说它没有引入注意力的原因。 上面的例子中