
浙软
ExisfarAll articles in this blog are licensed under CC BY-NC-SA 4.0 unless stating additionally.
Related Articles
Comment
匿名评论隐私政策
Catalog
- 1. 浙大软院
- 1.1. 解释虚拟内存的实现原理
- 1.2. 比较RR和SJF进程调度算法的优缺点
- 1.3. 说明B+树在数据库中的具体应用场景
- 1.4. 分析红黑树与AVL树的区别及适用场景
- 1.5. 详细描述HTTPS的加密流程
- 1.6. 阐述TCP拥塞控制算法的实现机制
- 1.7. 你在项目中遇到的最大技术挑战是什么?如何解决的?
- 1.8. 相比传统方法,你的算法在指标上有提升?具体数据是多少?
- 1.9. 为什么选择Redis而不是MySQL?
- 1.10. 手写最长回文子序列的动态规划解法并输出具体序列
- 1.11. 手写二叉树到双向链表的原地转换
- 1.12. 手写Dijkstra算法的完整实现
- 1.13. 英文自我介绍(1-2分钟)
- 1.14. Explain the workflow of MapReduce
- 1.15. Describe the advantages of NoSQL databases
- 1.16. 如何快速掌握一门新技术?请举例说明
- 1.17. 项目中出现技术分歧时如何处理?
- 1.18. 硕士期间的研究计划是什么?
- 1.19. 如果同时获得其他名校offer将如何选择?
- 1.20. 最近阅读的论文中哪篇对你启发最大?为什么?
- 1.21. 如何看待AI对程序员职业的影响?
- 1.22. 手写快速排序的递归与非递归实现
- 1.23. 解释CAP定理在分布式系统的应用
- 1.24. 设计一个支持高并发的秒杀系统
- 1.25. 如何处理机器学习中的过拟合问题?
- 1.26. 解释过拟合的解决方法及各自优缺点(L1/L2正则,Dropout)
- 1.27. 手推逻辑回归损失函数梯度求导过程
- 1.28. 动态规划与分治法的区别是什么?举例说明动态规划的应用场景
- 1.29. Dijkstra算法的时间复杂度如何?是否适用于负边权图?为什么?
- 1.30. 解释数据库索引的作用以及B+树相较于B树的优势
- 1.31. 进程和线程的区别?协程与线程的异同?
- 1.32. TCP与UDP的区别。TCP如何保证可靠传输?
- 1.33. 快速排序的最优/最差时间复杂度及对应场景
- 1.34. Transformer中 Self-Attention 的计算过程及复杂度分析
- 1.35. 梯度消失的原因及解决方法(如 LSTM、ReNt、BN 层等)←
- 1.36. 解释 SVM 的核技巧原理,为何要引入对偶问题?←
- 1.37. 手写代码:二叉树的中序遍历(递归与非递归实现)←
- 1.38. 如何用两个栈实现队列?时间复杂度如何?←
- 1.39. 解释 Batch Normalization 的作用及训练/测试阶段的差异←
- 1.40. GAN 的损失函数设计及训练不稳定的可能原因←
- 1.41. 红黑树的定义及其平衡性维护操作(插入/删除后的调整)←
- 1.42. 解释 C++中虚函数表(vtable)的实现原理<
- 1.43. 解释 LRU 缓存淘汰算法的实现方式及时间复杂度优化
- 1.44. PCA 的数学推导及与 AutgEnoder的区别←
- 1.45. 解释 XGR28&,的损失函数设计及分裂节点时的增益计算
- 1.46. 解释 Transformer 架构中 Self-Attention 与 RNN/CNN 的对比优势<
- 1.47. 大模型训练时如何解决显存不足问题?(如梯度检查点、模型并行等)←
- 1.48. 解释 LQRA(Low-Rank Adaptation)微调方法的原理及优势←
- 1.49. 大模型推理阶段如何优化计算速度?(提示:KVCache、量化、剪枝)“
- 1.50. 解释大模型出现"幻觉"(Hallucination)的原因及缓解方法
- 1.51. 对比 BERT 和 GPT在预训练任务与模型结构上的差异“
- 1.52. 解释混合专家模型(M&E)的工作原理及通信开销问题←
- 1.53. 大模型分布式训练中数据并行与模型并行的区别与应用场景←
- 1.54. 解释 RLHF(基于人类反馈的强化学习)在对话模型训练中的作用“
- 1.55. 如何评估大模型的多模态理解能力?列举常用评测基准←
- 1.56. 解释 K-means聚类算法的步骤及如何选择K值(肘部法、轮廓系数等)<
- 1.57. 朴素贝叶斯分类器的"朴素"假设是什么?在什么场景下表现良好?←
- 1.58. 解释 EM 算法的E步与 M 步,并说明其在 GMM 中的应用←
- 1.59. 决策树如何选择分裂特征?(信息增益、增益率、基尼指数)“
- 1.60. 随机森林为何通过特征随机性降低过拟合?←
- 1.61. 解释 ROC 曲线与 AUC 值的意义,对比准确率的局限性
- 1.62. 为什么深度学习模型需要数据归一化/标准化?←
- 1.63. 解释协方差矩阵在 PCA 中的作用,为什么需要特征值分解?←
- 1.64. 对比 Bagging与 Boosting 的差异(如偏差-方差权衡)←
- 1.65. 解释 LSTM 如何解决 RNN 的长期依赖问题←
- 1.66. 解释 Focal Loss 的设计思想及其在类别不平衡问题中的应用<
- 1.67. 对比监督学习、无监督学习与自监督学习的区别<
- 1.68. 解释马尔可夫链蒙特卡洛(MCMC)方法的基本原理
- 1.69. 推导线性回归的闭式解(正规方程)并分析计算复杂度
- 1.70. 解释对比学习(Contrastive Learning)的核心思想及典型应用←
- 1.71. 如何检测机器学习模型中的多重共线性问题?解决方法有哪些?←
- 1.72. 解释推荐系统中协同过滤的两种实现方式(基于用户/物品)<
- 1.73. 为什么 GBDT不适合直接处理高维稀疏特征?(对比 LR 的优缺点)←
- 1.74. 解释注意力机制如何增强 Seq2seg 模型的性能←
- 1.75. 模型压缩常用方法有哪些?(知识蒸馏、量化、剪枝等)←