載入中…
系統目前無法執行作業,請稍後再試。
每年的引文數
重複引用
Google 學術搜尋已經合併下列文章。系統只會計算第一篇文章的
合併引用次數
。
合併引文
「引用次數」包含 Google 學術搜尋服務中以下文章的引用次數。文章旁如有
*
標示,代表可能與個人學術檔案中的文章不同。
新增共同作者
共同作者
追蹤
這位作者的新文章
其他人引用這位作者的最新情形
與這位作者的研究相關的新文章
接收最新動態的電子郵件地址
完成
我的個人學術檔案
我的圖書館
指標
快訊
設定
登入
登入
建立我自己的個人學術檔案
引用次數
全部
自 2019 年
引文
798
796
H 指數
3
3
i10 指數
2
2
0
280
140
70
210
2019
2020
2021
2022
2023
2024
5
43
154
251
265
72
共同作者
Rodrigo Nogueira
Founder and CEO of Maritaca AI
在 unicamp.br 的電子郵件地址已通過驗證
Roberto A. Lotufo
Adjunct Professor at Faculty of E&CE, Unicamp, CTO @ NeuralMind
在 unicamp.br 的電子郵件地址已通過驗證
Guilherme Moraes Rosa
Unicamp
在 dac.unicamp.br 的電子郵件地址已通過驗證
Ramon Pires
Ph.D. in Computer Science at University of Campinas
在 ic.unicamp.br 的電子郵件地址已通過驗證
追蹤
Fábio Souza
Master's student,
University of Campinas
在 dac.unicamp.br 的電子郵件地址已通過驗證
Deep Learning
Machine Learning
Natural Language Processing
文章
引用次數
共同作者
標題
排序
按引用次數排序
按年份排序
按標題排序
引用次數
引用次數
年份
BERTimbau: pretrained BERT models for Brazilian Portuguese
F Souza, R Nogueira, R Lotufo
Intelligent Systems: 9th Brazilian Conference, BRACIS 2020, Rio Grande …
, 2020
494
2020
Portuguese named entity recognition using BERT-CRF
F Souza, R Nogueira, R Lotufo
arXiv preprint arXiv:1909.10649
, 2019
300
2019
Sequence-to-Sequence Models for Extracting Information from Registration and Legal Documents
R Pires, FC de Souza, G Rosa, RA Lotufo, R Nogueira
International Workshop on Document Analysis Systems, 83-95
, 2022
4
2022
BERTimbau: pretrained BERT models for brazilian portuguese= BERTimbau: modelos BERT pré-treinados para português brasileiro
FC de Souza
[sn]
, 2020
2020
系統目前無法執行作業,請稍後再試。
文章 1–4
顯示更多結果
隱私權
服務條款
說明
關於學術搜尋
Google 搜尋說明