Python内存管理的方式 参考答案
输入补全可以用哪个数据结构来做?(字典树) 假如有10亿条搜索请求,怎么找出最热的前10条? 讲一下LDA,讲一下隐狄利克雷分布,里面有个辛普森采样了解吗 pointwise、pairwise 、listwise的区别 word2vec是有监督的还是无监督的 word2vec的损失函数形式 分层softmax和负采样原理 Glove的思想以及和word2vec的区别 Fasttext和word2vec的区别 Fasttext哈希规则,怎么把语义相近的词哈希到一个桶里 RNN、LSTM、GRU公式。 RNN、LSTM、GRU参数大小 Attention机制的原理,有哪些变种 sigmoid用作激活函数时,分类为什么要用交叉熵损失,而不用均方损失?
精确率,召回率,F1值
AUC和ROC
Precision:P=TP/(TP+FP)
Recall:R=TP/(TP+FN)
F1-score:2/(1/P+1/R)
ROC/AUC:TPR=TP/(TP+FN), FPR=FP/(FP+TN)
讲一下Textcnn的过程 Fasttext怎么做分类的 CNN和LSTM都可以用于分类,两者用于分类有什么区别? 样本不均衡的处理方法
有了BILSTM为什么还要用CRF? BILSTM+CRF的训练目标?状态转移矩阵是joint learn的吗?维度是多少? 维特比算法的时间复杂度 HMM和CRF的区别 CRF、HMM原理 公式、维特比算法的公式 HMM做了哪些独立性假设 CRF的训练目标是什么? CRF和深度学习的结合还知道哪些? 为什么Transformer self-attention可以替代seq2seq
生成式问答解决生成句子多样性的方法 怎么评价生成效果的好坏 讲一下BLEU
def merge(a, b):
c = []
h = j = 0
while j < len(a) and h < len(b):
if a[j] < b[h]:
c.append(a[j])
j += 1
else:
c.append(b[h])
h += 1
if j == len(a):
for i in b[h:]:
c.append(i)
else:
for i in a[j:]:
c.append(i)
return c
def merge_sort(lists):
if len(lists) <= 1:
return lists
middle = len(lists)//2
left = merge_sort(lists[:middle])
right = merge_sort(lists[middle:])
return merge(left, right)
if __name__ == '__main__':
a = [14, 2, 34, 43, 21, 19]
print (merge_sort(a))