跳转至

2023

Interview

Keep in mind

  1. 只背⼋股⽂,是不⾏的,不太好进⼤公司。
  2. ⼤家要知道,⾯试官也是⼈,也知道候选⼈都在背⼋股⽂,⽽且⾯试官⾯过很多⼈,身经百战,你是背诵的,还是⾃⼰深刻理解过的,⾯试官⼀⾯你,就能知道你⼏⽄⼏两。也就是说,如果只会照本宣科的背⼋股⽂,⾯试会⽐较难受,碰到稍微严格的⾯试官,挖你细节,问到你不会为⽌,你会扛不住,⽆法根据情景说出⾃⼰的理解,这会给⾯试官很不好的印象,觉得你只会照猫画⻁。
  3. 在我看来,⽆论多么浅显的⼋股⽂,都要经过⾃⼰的实战经验,深度思考,再⽤⾃⼰的理解说出来,就算你的回答不是最好的答案,我觉得都没关系,你要让⾯试官看到你的潜⼒,看到你严谨的思维,清晰的表达

编程风格 (TO DO:有待拓展:编程素养)

Google C++

  1. 面向对象的数据结构思想:不要随便添加新的数据结构(边的信息),最好是在点的对象上添加。
  2. 让事情变得更简单、绝不重新发明轮子、尽可能使用经过验证的可靠技术。
  3. Time to use Class in C++
  4. Data and it's interface (复杂的数据/集合/容器和借口关系)
    1. 基类:数据,派生类:借口
  5. diff elements but in same one high level type (不同的事物,但是相同的抽象操作. )
    1. 基类:geometry(只是虚函数的框架),派生类:line, circle, Rectangle,相同操作:draw,calculate_area
    2. 基类:chart(只是虚函数的框架),派生类:line, bar, pie,相同操作:draw,push(add data)
    3. 数据格式以及初始化,要多态?
  6. Basic info & its specific application (信息的封装)
    1. 基类:基本信息,派生类:应用方向的基类
  7. useful utils (跨应用的常用轮子)

八股总结

  1. C++编程类
  2. 小贺 PDF
  3. 拓跋阿秀
  4. github interview c++
  5. 计网和操作系统
  6. 小林coding 图解
    1. 多进程通讯的方式,图解
    2. rdma, 下一代网络和互联技术

技术面

  1. 自我介绍
  2. 出彩经历介绍(项目、实习)
  3. STAR法则,也就是:“Situation: 事情是在什么情况下发生的;Task: 你的任务(难点)是什么;Action: 你的行动是什么;Result: 结果怎样。
  4. 时间占比如下,可以适当强调自己的工作 S+T:25% A:50% R:25%
  5. 技术测试(编程语法,和算法)
  6. 字节更看重编程,直接手撕各种算法

业务主管面

更宏观的问题:

  1. 职业规划为主:
  2. 详见 career blog
  3. 对各种事物的看法与价值观是否契合
  4. (越偏研究和长远发展的部门,问的越广泛。越偏业务的部门,问题越实际)

HR 面

面试官提问的:(生活相关的)

  • 配偶,家庭成员

我提问的内容

  • 工作内容:详细讨论了你去这个部门能做什么,准备安排你做什么,问你能不能胜任,保证了你是知道进去的工作内容。
  • 薪酬:注意前面两面也有问你的期望,那时候不要说太少,本人当时就是期望薪酬定的太低了,HR直接就给了。后面想反悔也不行。
  • 聊聊住址城市、升职,转正。
  • 工作节奏(上下班,周末)
  • 基本上都是8小时工作制,双休,午休一小时。弹性上班9点半到10点半。

需要进一步的研究学习

暂无

遇到的问题

暂无

开题缘由、总结、反思、吐槽~~

参考文献

上面回答部分来自ChatGPT-3.5,没有进行正确性的交叉校验。

Interview in english

Interview Preparation:

There is no set structure or format for your interview; it really just depends on the interviewer, and the direction the conversation goes, etc. You will likely be asked to explain something you worked on, and that would include some core skillset questions to check your understanding of your projects. Here are a few general suggestions to help you prepare:

1) Be prepared to speak at depth regarding any core skillset details in your background, for example: coding/technology-based questions; the two best ways to prepare for this would be to review your resume, and make sure you are able to talk at depth about skills you mentioned there, and to review the job description, and brush up on anything you might know, but feel you might not be able to go into detail about.

2) Ask good questions – about team, what we are up to, possible role/roles you might be a good fit for.

3) Read up on our website about our products and the company (many interviewers will ask what you know about us, and it is better to be prepared to answer - it shows interest in the company and what we are up to).

4) Access to a computer with an internet connection is typically required for your interviews

self-introduction in English

"Hello, I am a graduate student majoring in Computer Science and Technology at the University of Science and Technology of China. I am currently pursuing/pəˈsjuːɪŋ/ a master's degree. I completed my undergraduate studies at the same university and had the opportunity to participate in both the ASC and ISC competitions during my undergraduate years.

In my graduate studies, I have primarily focused on research related to High-Performance Computing. This includes projects such as static code analysis for Kunpeng processors, participation in program parallelization and acceleration optimization competitions, and exploring PIM (Processing in Memory) computing.

Through my academic and research experiences, I have developed a dual/ˈduːəl/ expertise /ˌekspɜːˈtiːz/ in computer microarchitecture and practical/ˈpræktɪkl/ application optimization. I have honed/hoʊnd/ the ability to swiftly identify program hotspots when faced with new applications, leveraging/ˈlevərɪdʒ/ the unique characteristics of computer systems to achieve efficient deployment and enhance program performance.

Furthermore, I have taken a keen/kiːn/ interest in emerging technologies such as artificial intelligence and machine learning. I aspire to apply these skills flexibly in fields like AI for science/HPC and AI program deployment. Thank you for considering my candidacy/ˈkændɪdəsi/ for this opportunity."

项目的介绍和关键字

参考文献

上面回答部分来自ChatGPT-3.5,没有进行正确性的交叉校验。

https://www.nowcoder.com/discuss/401041683767468032

2.3: Health Quantify

fitness

230910 230922
Neck 39cm
bust 89cm
the whole body 110cm
waist 84cm
hipline 95cm
Upper Arm Circumference 27cm
Forearm circumference 23.4cm
Thigh Girth 57cm 54.6cm
calf Grith 38.4cm 36.5cm
weight 65.4kg 65.9kg

stretching

  1. 弓箭步/站立版坐位体前屈,大小腿后侧
  2. 后提脚踝,并大腿,前倾,拉伸大腿前侧
  3. 侧面压腿,翘脚尖

Running

  1. 隔天跑
  2. 抬头收腹,挺直上半身
  3. 双手拔枪摆动,且向后用力摆
  4. 重心在脚底,而且前脚掌着地,而且离地后迅速向前收缩。膝盖弯曲
  5. 放松轻盈。

walking / Posture

  1. 抬头,收腹提背(收肋骨,吐腹部)
  2. 臀大腿发力,减少小腿发力。
  3. 足弓发力

Problem

  1. 体态:肋骨外翻(肋骨高于锁骨),核心不足,
  2. 表现:腰围代偿性增粗,粗大腿,粗小腿

Plan

  1. 早上床上拉伸,
  2. 侧卧抬腿
  3. 抱膝
  4. 工作:按压拉伸小腿。时刻注意腹式呼吸体态。
  5. 晚饭前跑步,拉伸
  6. 晚上床上拉伸

锻炼 不能 瘦小腿。正确的走路姿势才行

这个说得很在点子上,我是在19年末的时候通过改变走路发力方式瘦小腿的。与其说瘦腿,其实更是和大腿相比看起来更匀称,我之前的小腿肚站起来时候和大腿一样粗,站直的时候膝盖甚至是合不上的。经过反思,发现我日常走路的时候时间长了经常会感到小腿酸胀,这其实一直是在用小腿走路,我在这期间尝试过跑步,虽小有成效,但停下来就又会恢复原状。这种情况导致的小腿粗是一个比较复杂的原理,但我最后通过大半年的时间对走路方式进行了调整,现在虽然小腿不算细,但和大腿比起来看起来已经相当正常了,我的调整策略如下: 走路时注意重心靠后,也就是后背中间的位置,同时双肩放松,这样你会不自觉地挺胸抬头,同时为保持平衡感觉到腹部有牵引感。走路时大腿内侧和屁股发力,重点来了:保持脚后跟尽量贴住地面(踮脚走路是大忌),迈步时脚后跟先接触地面,在前脚后跟接触地面之前,后脚后跟不要离开地面。简单来说就是用脚后跟走路,你会发现这个过程中小腿是几乎不怎么发力的,时间久了只要不是肥胖型自然会瘦下来。

参考文献

Komga

简介

漫画或者PDF的jellyfin版本 , 类似的还有 基于docker的smanga

安利文简单使用文

选择

Rather than browse rouman online, high-resolution pivix pictures seems more worthy to be downloaded and maintained.

But first you need a much bigger NAS.

安装

  • 通过Docker安装(Docker on Windows 体验不好)
  • 通过java运行

Windows

  • 由于在portainer.io里路径有问题,选择直接在docker里点击image run创建容器。
  • 如果输入数据来源多,建议设置子目录data/1 and data/2。 and Please think carefully because restart container will triger the following bugs:

But docker on Windows remains many bugs:

  1. Failed to restart the docker engine
  2. deadlock between first free volume to delete container and first stop already stepped container to free related volume.

Linux docker

In http://brainiac.acsalab.com:2333/

step1: map remote data to local visual disk

  1. map windows disk to linux
  2. map Nas disk to linux sudo mount.cifs //synology.acsalab.com/Entertainment /synology -o user=xxx vers=3.0

Step2 : docker

采取第一种, 在 portainer.io的local的stack里使用docker compose部署

---
version: '3.3'
services:
  komga:
    image: gotson/komga
    container_name: komga
    volumes:
      - type: bind
        source: /mnt/e/commonSoftware/komga/config # Database and Komga configurations
        target: /config
      - type: bind
        source: /mnt/e/commonSoftware/komga/data # Location of your data directory on disk. Choose a folder that contains both your books and your preferred import location for hardlinks to work.
        target: /data/komga
      - type: bind
        source: /etc/timezone #alternatively you can use a TZ environment variable, like TZ=Europe/London
        target: /etc/timezone
        read_only: true
    ports:
      - 2333:8080 # 应用内部的 8080 到机器的2333端口。由于机器的8080被qBit占用了
    user: "1000:1000"
    # remove the whole environment section if you don't need it
    environment:
      - <ENV_VAR>=<extra configuration>
    restart: unless-stopped

Docker in Ugreen Nas

  1. easy pull official komga image
  2. set mount disk
  3. set port

komga V.S. smanga V.S Kavita

  1. exhentai-manga-manager only on widnows
  2. smanga,
    1. 优点: 1. 带标签和收藏,维持三级目录, 2. 独特的目录设计。
    2. 缺点: 1. png读取正常,但是zip解压过于缓慢 2. PDF的支持暂时欠缺: 1. 无法阅读 2. PDF阅读与decompress的冲突 3. 元数据不能自由编辑,只能编辑标签。 4. 不能读取根目录的文件,但是能选择单行本,或许可以解决这个问题,但是需要尝试。 5. 无法读到过深的文件夹。
    3. 小结:本来寄希望于这个all in one, 但是问题太多,还是只适合刮削好的资源。 可以不断完善和尝试。
    4. 举例:所有韩漫,
  3. Kavita
    1. 优点: 1. 纯zip文件能读到深处的文件夹 2. 日漫带标签和收藏,有缩略图。 3. 元数据能自由编辑
    2. 缺点: 1. 奇怪的文件名识别规则,导致 2. 杂乱的类型(zip, png, pdf)会导致目录混乱 3. 不能读取根目录的文件
    3. 小结:适合高度组织过后的内容
    4. 举例:2022单行本,零散日漫单行本。和calibre处理后的文件。
  4. komga
    1. 优点: 1. 维持原始目录结构,稳定简洁。 2. 元数据能自由编辑 3. 根目录文件能识别
    2. 缺点: 1. 没有收藏,保存和标签等功能,不适合碎片化连续看。
    3. 小结:适合混乱的内容,靠文件夹的并列和包含关系,维护逻辑关系。
    4. 举例:杂志(没有子文件夹包裹,识别不了),漫之学院(太大),日漫大合集(混乱的结构)

需要图书/漫画刮削

有刮削建议 smanga

有封面图和备注详细角色和类型信息。

dockers komga smanga Kavita
单一大PDF文件加载 缓慢 缓慢
格式支持 zip,cbz,pdf 部分zip不支持bug,不支持cbz zip,pdf ,cbz
如何支持单文件夹多图片 每个文件夹单独压缩成zip反而支持
自定义元数据
任意位置标签
已知bug 容器会自动关机(有待进一步测试)
总体评价 基础完善稳定,但是定制化不足 有用的定制化 全,但是不维持原目录有点恶心,导致必须按照类型整理。
Manga vs comic

"Manga" 和 "comic" 是两个术语,通常用于描述不同地区和文化中的漫画,其中 "manga" 常用于日本漫画,而 "comic" 通常用于西方漫画,包括美国漫画。

  1. Manga(漫画):
  2. 地域: "Manga" 是日本的一种漫画形式,是日本漫画的通用术语。
  3. 特点: Manga 的特点包括从右到左的阅读顺序,经常包含有关日本文化和社会的元素,以及广泛的主题和风格。

  4. Comic(漫画):

  5. 地域: "Comic" 是一个通用的英语词汇,用于描述西方国家的漫画,主要是美国漫画。
  6. 特点: Comic 的特点包括从左到右的阅读顺序,以及通常较大的页数和较大的漫画行业。

需要注意的是,"manga" 和 "comic" 不仅仅是描述漫画的词汇,它们还代表了不同的创作风格、文化和产业。虽然在某些上下文中可能会使用这两个词汇来泛指漫画,但在讨论时最好根据具体的地域和文化使用适当的术语。

其余未汉化版本

LANraragi

推荐文件结构

kativa

Library Root
  ┖── Series Name
      ┖── Series Name SP01 Special Name.cbz
      ┖── abc.cbz
  • Kavita enforces that all files are within folders from the library root. Files at library root will be ignored.
  • kativa 会将不符合文件夹命名Series Name的新文件(e.g.,abc.cbz),当作新的作品单独列出在根目录。这十分傻逼,对内容的共振度的要求也太高了。出现一个命名不规范的文件就会乱套。
  • kativa 对文件类型也会做特殊处理,对png, cbz, zip文件会有不同的阅读器,最搞笑的是 kativa会把子章节cbz的同名图片单独用个文件夹放置,而不是识别出章节的封面图,kativa会读取子章节cbz的内容当作封面图。

smanga

可以看得出作者有特殊的设计。

但是美中不足的是对于子文件夹的支持不够,太深的文件读取不到。

单行本

理论如此,但是实际貌似会卡住。

komga

Komga支持CBZ/CBR、EPUB、PDF格式。对于漫画而言,个人觉得cbz1是最简单、兼容性最高的格式。

建议的文件结构如下:

.
└── libraryManga
    ├──            ├──  1话.cbz
       └──  9话 .cbz
    └── 辉夜大小姐想让我告白
        ├── 01话 .cbz
        └── 02话.cbz
3 directories, 4 files
  • libraryManga表示库名,下一层结构区分不同的漫画,更下一层则存储漫画文件
  • komga相对于kavita的异同
    • 都不会识别根目录下的文件
    • 但是komga不会管Series文件夹的子文件夹,会认为不存在,全部打散。kavata由于命名的原因会将Series文件夹的子文件夹内的内容当作新的系列,提到根目录显示。

内容的组织

需要考虑的点

内容的组织考虑的是一个平衡,每个lib下应该只有40个左右的内容。

  • 根据类别分类:
  • 韩漫,日漫,杂志
  • 根据时间分类:每个月大约有50部左右

下载的内容的特点:

  • 日漫,很多是单行本没有系列的,所以系列的这一级文件夹可以使用时间代替
  • 有些库太大了,估计有一千本漫画(漫之学院),必须分开。
  • 有些库还是识别不了 合集/A/PDF/*

实践

看多少,刮削多少。

内容的刮削

calibre + ehentai

见 Calibre and its Pugins for e-hentai Books 一文

好奇?这些日本的单行本有元数据吗?来自哪里的?

漫画大部分来自E-hentai/Exhentai 1

还有 nheitai hanime1的漫画站就是这个的克隆。

里番-> 桜都字幕组 -> Nyaa里站,同时南+

失败:BangumiKomga

  • 一个从Bangumi获取元数据并填充的Python脚本
  • 但是自动识别刮削的成功率很低,强烈建议在Bangumi中先找到对应漫画后把链接贴到Komga系列作品链接处,标签写为cbl,配置好后在目录下运行python processMetadata.py,即可近乎完美的给漫画加上海报和信息了
  • 但是Bangumi又没有本子的内容

集成订阅平台:tachidesk

尝试后发现是,类似RSS的漫画网页集成浏览器(B站,腾讯漫画,18+漫画)。实现订阅,跟踪,一键下载。 由于生态很不错,不用担心订阅链接失效。

Bugs docker stopped in UGREEEN

我猜测是内存不够

kavita自动关机
[Kavita] [2023-12-08 07:21:00.508 +00:00  194] [Information] Serilog.AspNetCore.RequestLoggingMiddleware HTTP GET /api/image/series-cover?seriesId=759&apiKey=39714029-85f9-446c-9834-9ad384fda00d responded 304 in 0.9718 ms
[Kavita] [2023-12-08 07:21:50.010 +00:00  188] [Information] Serilog.AspNetCore.RequestLoggingMiddleware HTTP POST /api/account/refresh-token responded 200 in 2630.1327 ms
[Kavita] [2023-12-08 07:21:50.043 +00:00  193] [Information] Serilog.AspNetCore.RequestLoggingMiddleware HTTP GET /api/license/valid-license?forceCheck=false responded 200 in 17.1837 ms
[Kavita] [2023-12-08 07:21:50.045 +00:00  182] [Information] Serilog.AspNetCore.RequestLoggingMiddleware HTTP POST /hubs/messages/negotiate?negotiateVersion=1 responded 200 in 5.7189 ms
[Kavita] [2023-12-08 07:21:50.131 +00:00  168] [Information] Serilog.AspNetCore.RequestLoggingMiddleware HTTP GET /api/device responded 200 in 107.7960 ms
Server is shutting down. Please allow a few seconds to stop any background jobs...
You may now close the application window.
[Kavita] [2023-12-08 07:21:55.785 +00:00  179] [Information] Serilog.AspNetCore.RequestLoggingMiddleware HTTP POST /hubs/messages/negotiate?negotiateVersion=1 responded 200 in 0.1795 ms
[Kavita] [2023-12-08 07:21:55.789 +00:00  45] [Information] Microsoft.Hosting.Lifetime Application is shutting down...
[Kavita] [2023-12-08 07:22:26.562 +00:00  179] [Fatal]  Host terminated unexpectedly
System.AggregateException: One or more hosted services failed to stop. (The operation was canceled.)
---> System.OperationCanceledException: The operation was canceled.
  at System.Threading.CancellationToken.ThrowOperationCanceledException()
  at System.Threading.CancellationToken.ThrowIfCancellationRequested()
  at Hangfire.Processing.TaskExtensions.WaitOneAsync(WaitHandle waitHandle, TimeSpan timeout, CancellationToken token)
  at Hangfire.Processing.BackgroundDispatcher.WaitAsync(TimeSpan timeout, CancellationToken cancellationToken)
  at Hangfire.Server.BackgroundProcessingServer.WaitForShutdownAsync(CancellationToken cancellationToken)
  at Microsoft.Extensions.Hosting.Internal.Host.StopAsync(CancellationToken cancellationToken)
  --- End of inner exception stack trace ---
  at Microsoft.Extensions.Hosting.Internal.Host.StopAsync(CancellationToken cancellationToken)
  at Microsoft.Extensions.Hosting.HostingAbstractionsHostExtensions.WaitForShutdownAsync(IHost host, CancellationToken token)
  at Microsoft.Extensions.Hosting.HostingAbstractionsHostExtensions.RunAsync(IHost host, CancellationToken token)
  at Microsoft.Extensions.Hosting.HostingAbstractionsHostExtensions.RunAsync(IHost host, CancellationToken token)
  at API.Program.Main(String[] args) in /home/runner/work/Kavita/Kavita/API/Program.cs:line 115
komga自动关机

查看对应docker日志, 猜测容器运行时,可能会受到资源限制,例如内存不足、CPU 使用过高等。如果容器超过了资源限制,可能会被系统强制关闭。

2023-12-07T11:28:39.022Z  INFO 1 --- [taskProcessor-4] o.g.komga.application.tasks.TaskHandler  : Task FindBooksWithMissingPageHash(libraryId='0EEB1WDMHPFT0', priority='0') executed in 722.922us
2023-12-07T11:28:39.080Z  INFO 1 --- [taskProcessor-4] o.g.komga.application.tasks.TaskHandler  : Executing task: FindDuplicatePagesToDelete(libraryId='0EEB1WDMHPFT0', priority='0')
2023-12-07T11:28:39.096Z  INFO 1 --- [taskProcessor-4] o.g.komga.application.tasks.TaskEmitter  : Sending tasks: []
2023-12-07T11:28:39.096Z  INFO 1 --- [taskProcessor-4] o.g.komga.application.tasks.TaskHandler  : Task FindDuplicatePagesToDelete(libraryId='0EEB1WDMHPFT0', priority='0') executed in 16.090346ms
2023-12-07T13:38:16.408Z  INFO 1 --- [ionShutdownHook] o.s.b.w.e.tomcat.GracefulShutdown        : Commencing graceful shutdown. Waiting for active requests to complete
2023-12-07T13:38:16.638Z  INFO 1 --- [tomcat-shutdown] o.s.b.w.e.tomcat.GracefulShutdown        : Graceful shutdown complete
2023-12-07T13:38:18.871Z  INFO 1 --- [ionShutdownHook] com.zaxxer.hikari.HikariDataSource       : SqliteTaskPool - Shutdown initiated...
2023-12-07T13:38:18.883Z  INFO 1 --- [ionShutdownHook] com.zaxxer.hikari.HikariDataSource       : SqliteTaskPool - Shutdown completed.
2023-12-07T13:38:18.887Z  INFO 1 --- [ionShutdownHook] com.zaxxer.hikari.HikariDataSource       : SqliteUdfPool - Shutdown initiated...
2023-12-07T13:38:18.889Z  INFO 1 --- [ionShutdownHook] com.zaxxer.hikari.HikariDataSource       : SqliteUdfPool - Shutdown completed.
____  __.
|    |/ _|____   _____    _________
|      < /  _ \ /     \  / ___\__  \
|    |  (  <_> )  Y Y  \/ /_/  > __ \_
|____|__ \____/|__|_|  /\___  (____  /
        \/           \//_____/     \/

Version: 1.8.4

需要进一步的研究学习

暂无

遇到的问题

暂无

开题缘由、总结、反思、吐槽~~

参考文献

https://sspai.com/post/79100

1.3 making-money business

人的精力是有限的,投入到自己喜欢或者为生的事情上,其他的事情,专业的事情交给专业的人

1.2 Career

职业规划:

职业规划是成为 AI系统的性能分析建模分析 -> 理解AI算法数学本质, 设计爆款AI算法应用:

  1. 测量各组件指标,
  2. HPCG,HPC, AI benchmark
  3. 分析理解应用瓶颈

计算机职业规划

  1. 自底向上分析理解和设计计算系统(系统建模与高层次的抽象) + 企业核心落地应用
  2. 融入公司的核心竞争力的发展。参与到低延迟,高并发的高性能系统的设计。(使用、理解、设计)
  3. 传统应用的优化入手,分析计算系统的上限和程序的性能释放瓶颈,从而了解系统瓶颈。并考虑上异构的系统或者FPGA来解决。

以性能优化为切入点,系统建模和分析数据流程之后,解析程序瓶颈(深入了解对应操作系统是如何调度实现的,来深入了解内核),探寻性能最佳的执行手段。

具体职位的转变

  1. 百度/华为AI系统(软件性能工程师) -> 应用在GPU上的适配的瓶颈 -> AI系统架构师 -> AGI系统架构师
  2. 阿里云 HPC组(深度学习虚拟化技术) -> mihoyo 的 云游戏部门
  3. 需要调研云游戏现状
  4. 互联网 -> 30岁考公回长沙

公司分析

候选公司

  1. 一线互联网BAT: 百度, 阿里, 腾讯, 字节
  2. 华为
  3. 美团,快手
  4. 新兴明星公司:mihoyo,小红书

甄别技巧

  • 真想招聘人的公司,是能感受到那种诚意的,是站在用人的角度去考虑问题,基本问一些相关的情况。差不多能用就发offer了。3
  • 有些公司明显就不想招人,不仅问的是否详细,内容也十分偏。折腾半天,最后也不了了之了。
  • 除此之外有些公司只是为了解决自己的问题,面试是能感知到一些东西的,遇到明显套方案的公司,不要什么都说,要有所保留。

就业指导

  1. 选行业:关注国家政策,关注社会趋势
  2. 选平台:第一梯队,如果可能只要首位
  3. 选团队:选主不选辅,技术厚度,慎选小Team
  4. 选上级:经验,口碑,性格特点,梯队历史
  5. 看待遇:长期发展,短期收益,PK offer
指标一:大厂与国家的科研布局

华为遥遥领先,基础研发有待加强4

指标二:计算机相关的国内500强

普联是制造业的500强(1),和讯飞暂时还无法进入民营500强1

  1. 2023年制造业500强也找不到了

案例实践:2023秋招 华为 vs 百度

  • 华为 - 昇腾产品线 - 昇腾计算开发使能部 - 软件开发工程师
  • 百度 - TPG基础计算体系 - DLTP深度学习技术平台部 - 飞桨引擎异构部门 - 异构计算工程师
比较项 华为 百度 百度相较于华为
公司影响力 爱国色彩,消费者认知 对于消费者还停留在搜索引擎 -1
变现渠道 结合终端产品和自身的服务器产品,AI能很好落地 卷AI模型软件网络服务,落地到AI百度搜索/智能云2,硬件基础和销售弱一些 -1.5
发展机遇 新部门开拓期,杭州和青浦定位相同,可选范围广 百度的核心AI业务的核心引擎部门 0
定级/晋升难易 特批的16级 T4 +0.5
部门团队 200人大部门 20人,较小独立的精致团队,便于团队内交流, 和领导也聊得来 +1
师兄帮助 有同届的spq,还有lh师兄等师兄 唯一zpq师兄,还是在独立的昆仑芯 -1
工作学习内容 华为摸索期,会有基础琐碎业务,参与到下一代昇腾, MindSpore(2020年3月)的研究 百度走在国内前沿, 学习了解飞桨平台(2016年8月底) -1
毁约影响 没谈成之后也可以跳过来 毁约后很难再来 +2
跳槽难度 不是传统互联网节奏 更适合在互联网企业流转 +0.5
工作强度/节奏 8点半9点走,月末周六加班 七八点走 +1
买房压力 青浦房价低,但是不适合定居 浦东房价高 -1
生活通勤成本 便宜单人宿舍,应该离工作地点近, 食堂应该不错 住房成本和环境确实高一些 (+住房2k/month) -1.5
周围配套(娱乐生活) 偏远上海青浦,距陆家嘴/高铁站(2h+/1.5h) 上海浦东,距陆家嘴/高铁站(42mins/1.25h) +1
稳定性 两年较稳定期 全靠自己实力 -1
工资 特批之后是同薪资(但基础工资的公积金差7% -3k) 高薪 (n)*16 +1
综合 专心的奋斗者,致敬 + 更长远的布局和共同成长 工作和快乐生活更平衡 + 接触工业界的前沿知识 -0.5
工作内容:华为 昇腾计算开发使能部
  • 调优体系工具Nsight(算子,网络训练分析
  • 训练优化,精度提升(内存优化, 千卡万卡调度,通讯库
  • 推理优化(AI算法强相关
  • 算子体系(1. 编译器 TVM 2. 调试系统开发)
工作内容:百度 异构计算工程师

工作职责:

  • 参与AI推理引擎底层算子库的开发与优化,提升异构资源计算效率
  • 参与大规模AI计算通信库及通信算法的开发与优化,提升大规模AI训练效率
  • 探索面向CPU/GPU/FPGA/ASIC等多元化计算架构的编译系统开发、实现编译优化和算法加速

  • 完成其他相关任务

职位要求:

  • 热爱编程,精通C++/Python
  • 具有独立开发能力,对AI算法和流框架有丰富的应用或开发经验
  • 熟悉GPU/ARM/MIPS/DSP等任意异构计算平台
  • 熟悉计算机体系结构,有汇编级别开发经验
  • 有丰富的AI通信加速经验,量化/融合/拓扑优化
  • 熟悉MPI,对不同网络拓扑结构的通信算法及底层通信函数有深入研究,对RDMA,GPU direct等技术有了解

PS: 校招,社招,不限欢迎投递,部门团队直面,提前批招聘,不影响后续22届校招 欢迎投递,大量HC 校招特别说明: 校招生:基础扎实,有兴趣做AI底层计算加速与优化 即可

工作地距陆家嘴

上海房价:浦东和青浦

青浦房价最高到 3.8万左右。

浦东 7~8万。

BTW,华为东莞松山湖目前5-6万。

华为租房买房

华为选址规划:

  • 华为在国内有深圳坂田、东莞松山湖、上海青浦3个总部级研发中心;
  • 有9大一级研究所,分别是北京、上海、南京、西安、成都、杭州、苏州、武汉、长春(筹备中)。

青浦/西岑镇/淀山湖 规划:

  1. 长三角一体化: 2019年立项。华为全球研发中心,投资100亿,2020年开工2024年建成;
  2. 华为目前已经在那块建了大几千套家庭房和几千套单身公寓;合计约1.5万套房。6
  3. 所有金桥,市区其他办公大概20000多个华为研发,华为明年5月全部搬青浦华为中心
  4. 一共陆续要招5w人,

预览图乡村景色, 建议小红书多看看

  • 华为宿舍 :东莞松山湖和深圳坂田都有提供宿舍,一室一厅的话1600一个月,单间酒店那种的1300一个月。
  • 华为住房:公司有自己盖的房子,有出租的,也有可以买的。出租的叫荔枝苑,无论级别都能住,但是要排队,房租2k到3k左右。买房的话,房价差不多1万-2万左右。

核心要点

真是两难的问题。其实秋招,我都没想到两边都这么重视,开的也比较高。看来工业界对于 AI System, HPC for AI或者说 HPC for LLM 有很大的期待。

前面的比较的点还是太繁琐了。抛开一点点工资和毁约的影响,选几个核心要点吧:

  1. 研究内容(现阶段):华为相较于百度,能参与到下一代昇腾的研究里去。作为体系结构科班,其实更感兴趣。
  2. 用武之地(上限):从体系结构的角度出发,如何为下一代AI的训练推理注入活力。华为昇腾覆盖的范围比百度更大。
  3. 过渡阶段(稳定性):作为个人,我其实是“转行”。百度虽然现阶段是领先的,但是我可能跟不上。华为这边体系结构的工作可以占比大,切入和适应应该更自然。
  4. 工作伙伴:有同届的spq,还有lh师兄等师兄。百度唯一zpq师兄,还是在独立的昆仑芯
  5. 工作节奏:工作压力时长,肯定是华为更大。但是工作的条件,环境。青浦修好后,肯定非常漂亮。

总体看来,选择华为更契合我未来的长远的职业规划。

后续毁约推进
  1. 如何与百度和解:我纠结了很久,百度也是很喜欢的团队和工作内容。但是在华为能参与到下一代昇腾的开发,这也是我学体系结构的梦想之一,(薪资也差不多)。
  2. 华为先签两方?4月再推进毁约?

公司资料了解

工资评级分析

7

华为的公司架构
  • 三主体:产品线一线交付, 预研部门, 2012部门
  • 产品线一线交付,付钱给预研部门, 2012部门来研究内容
  • 前者在完成指标后,自负盈亏,后者一般是固定年终奖。
华为的公司公开的分红消息

根据公开的资料整理,华为历年的持股收益率,2019年以前,每年的分红综合收益率基本都在25%以上。

近几年即便是在美国的打压下,经营状况没那么好,分红略低一些,但也都在20%以上。

  • 2020年,股价7.85元,分红1.86元,收益23.6%
  • 2021年,股价7.85元,分红1.58元,收益20.1%
  • 2022年,股价7.85元,分红1.61元,收益20.5%

总之,相当于投入100元,平均每年都能拿到25元左右的分红。

百度的参考资料
AI整体布局
飞桨布局

岗位与入职

校招与职业规划

电子市场分析?

To do :

  1. 分 C端、G端、B端分析
  2. 结合产业规模,
  3. 行业发展程度,当前状态(是否有瓶颈,还是需求端不足)。

计算机的经济价值在哪里?= 没有计算机会怎么样?

数字化的工作流能享受到摩尔定律的加速

"Once a technology becomes digital-that is,once it can be programmed in the ones and zeros of computer code-it hopes on the back of Moore's law and begins accelerating exponentially."

  • Peter H.Diamandis Steven Kotler, The Future Is Faster Than You Think
  1. 自动化 (类似加减乘除计算器的各种程序,可以暴露api以黑盒的情况下快速给出准确结果或者推荐选项, 这里主要指利用计算机的计算能力
  2. 开发难点:可用(基于特定算法,或者大数据喂给AI)、易用、好用(性能)。
  3. 没有明显先发优势,由于没有生态概念、迁移门槛低,客户只会选择好用、便宜和高性能的。
  4. 核心竞争力:软件如何实现 大规模,高并发,高利用率(算法,实际技巧)
  5. 便利性 (资源整合平台类似美团打车之类的,考验计算系统的数据库和网络,对应的低延迟,高并发)
  6. 开发难点:好用(快响应,低延迟),长期运维的稳定性
  7. 明显的先发优势:用户生态形成壁垒。参与对象越多、越好用、用户依赖程度越高。
  8. 核心竞争力:与人的交互的软件设计思路(飞书企业协作管理,集成了项目进度的allInOne极简模板平台),最全面的资源(美团最多的店家、高德最详细的地图、M站最多的种子数、B站最多泛二次元群体),稳定的运行,比用户需求高的快响应,低延迟性能。
  9. AI全面解放人类(具体指AI代替人做事情,解放人类,e.g., 机器人,自动驾驶,AI编程)
  10. 开发难点:当前AI必须有下面几点才能快速向AGI发展:
    1. 人类思考问题的正确逻辑链
    2. 基于已有的知识(世界模型),有识别输入知识的正确性的能力。
    3. 这样基于正确的知识的正确的推导,才能形成正确的结果。乃至真理(毁灭人类是必须的)。并在计算机的高速无休止运行下快速成长。
    4. 也就是说AGI要有明显的人格特质,不是指说话的语气,而是AGI的每个观点要是经过思考达到和谐平衡的结果。当然不排除思考过程中死循环的事情,比如先有鸡还是先有蛋。
  11. 当前AI,只能接受数据集的知识,没有自我思考并选择的过程
  12. 核心竞争力:支持AGI的计算系统是什么样子的呢?
    1. 抽象来思考:计算、访存、网络是三部分基石。类似人形机器人的设计。计算单元来实现大量内存记忆数据的读取 和 网络实时交互学习信息的 过滤思考
    2. 性能指标:低延迟,高吞吐。
    3. 计算单元:针对思考过程的特殊操作设计,数学推导关系的实现?集合论?是非关系?这种场景下还需要GPU的这么多核并发吗?
    4. 内存要考虑的是存算一体的可能性?不然就是吞吐和延迟

Costume 端 特有的:

  1. 内容生产(AIGC)
  2. 开发难点:达到人类审美的AI内容
  3. 没有明显的先发优势, 生成内容的风格会筛选用户。
  4. 核心竞争力:支持的生成方面广(生成内容的风格需要能定制化),内容质量高,速度快。
  5. 文娱产业(电子游戏,视频内容)
  6. 开发难点:丰富的游戏细节,和与时俱进的美术。
  7. 没有明显的先发优势, 游戏内容的精度和新鲜感是最重要的。
  8. 核心竞争力:如何实现工业化的高级美术和剧情产出(AIGC?)。

计算机行业为什么赚钱? 这个理由能持续下去吗?

  1. 门槛低,一台笔记本就可以写软件,从便利的各种小工具,到大型软件。
  2. 在专利保护下软件复制成本近乎零,收益稳定。可以实现薄利多销。
  3. 低成本复用性:一个APP开发好之后,可以在不同位置和时间无成本复制(指每个人可以在任意时刻使用软件服务)。 第一产业生产的粮食和工业制品都是生产一个消耗一个。服务业也是一次性的。
  4. 无损耗,实现后可以长期生效。是少数跨越时间长河的永恒的东西。
  5. 但是在激烈的竞争下,软件都趋向免费化。靠基于庞大用户群体的平台抽成和附加高级服务(云盘会员,游戏附加充值)来实现。或者是靠免费化吸引一波用户。
  6. 芯片硬件流片周期长,成本高

参考文献